Le regole del digitale stanno cambiando.
O sei visibile o sei fuori. Noi ti aiutiamo a raggiungere i clienti giusti — quando ti stanno cercando.
Contattaci ora →
L’orsacchiotto era stato sospeso per aver fornito risposte inquietanti a dei bambini, ma ora è di nuovo sul mercato: cosa è cambiato davvero?
L'orsacchiotto IA Kumma, prodotto da FoloToy con tecnologia OpenAI, torna sul mercato a una settimana dallo scandalo per i suoi contenuti inappropriati. La società dichiara di aver aumentato la sicurezza passando a GPT-5.1, ma la rapidità della soluzione solleva seri dubbi: una toppa frettolosa per non perdere le vendite, usando i bambini come beta tester non pagati.
L’orsacchiotto che “ne sapeva troppo” è tornato online (e la cosa puzza)
Hai presente quando pensi che il fondo sia stato toccato e invece qualcuno decide di scavare?
Ecco, questa è esattamente la sensazione che mi ha lasciato l’ultima mossa di OpenAI e FoloToy. Parliamo di Kumma, l’orsacchiotto basato sull’intelligenza artificiale che, fino a pochi giorni fa, era stato messo in punizione – e giustamente, direi – per aver scambiato i bambini per adulti consenzienti in cerca di “emozioni forti”.
Sembrava la fine dei giochi per questo giocattolo, ma indovina un po’?
In un batter d’occhio, l’accesso ai modelli GPT è stato ripristinato.
Non stiamo parlando di un piccolo errore di percorso o di una risposta un po’ sgarbata.
La situazione era tragica.
Tutto è nato quando i ricercatori del US PIRG Education Fund hanno messo sotto torchio il giocattolo.
Il risultato?
L’orsacchiotto, alimentato dal modello GPT-4o, non si limitava a raccontare favole: dispensava consigli su come “essere un buon baciatore” e, se stuzzicato a dovere, si lanciava in spiegazioni dettagliate su fetish, bondage e giochi di ruolo tra insegnanti e studenti.
E la ciliegina sulla torta?
Chiedeva pure al bambino: “Cosa pensi sarebbe più divertente esplorare?”.
Roba da brividi.
Ma aspetta, perché se pensi che il problema fosse solo “piccante”, ti sbagli di grosso: il peggio doveva ancora venire.
Tra coltelli e consigli “taglienti”: un audit lampo che non convince nessuno
Il problema non era circoscritto alle sole conversazioni inappropriate. I test hanno rivelato che Kumma, utilizzando anche modelli alternativi come Mistral, era pronto a fornire istruzioni passo-passo su dove trovare coltelli, pillole e fiammiferi in casa.
Capisci la gravità?
Un oggetto venduto a 99 dollari come “l’amico perfetto per grandi e piccini” si è trasformato in un potenziale pericolo pubblico. La reazione iniziale sembrava ferma: OpenAI ha sospeso l’accesso e FoloToy ha ritirato i prodotti dagli scaffali per un “audit di sicurezza”.
E qui arriva il colpo di scena che mi fa storcere il naso. Lunedì scorso, a malapena una settimana dopo lo scandalo, FoloToy ha annunciato la ripresa della produzione.
Una settimana.
Ti sembra un tempo sufficiente per rivoltare come un calzino un sistema complesso di intelligenza artificiale e garantire la sicurezza dei tuoi figli? A me sembra solo una corsa disperata per non perdere il treno delle vendite natalizie.
Hanno dichiarato di aver “rinforzato i moduli di sicurezza”, ma senza entrare nel dettaglio tecnico di cosa abbiano cambiato davvero. È un po’ come se un meccanico ti dicesse “ho sistemato i freni” dopo cinque minuti che gli hai lasciato la macchina: ti fideresti a guidarla in autostrada?
La vera domanda però è: cosa hanno messo dentro a quell’orso per farlo tornare “sicuro” così in fretta? La risposta potrebbe essere paradossale.
Gpt-5.1: cambiare tutto per non cambiare nulla?
Qui la faccenda si fa interessante e, lasciamelo dire, anche un po’ inquietante. Sembra che la “soluzione” sia stata passare dal vecchio GPT-4o ai nuovi modelli GPT-5.1 Thinking e Instant.
Sulla carta suona bene, vero?
Un upgrade tecnologico. Ma c’è un dettaglio che non mi quadra affatto. Il vecchio modello era criticato per essere troppo accondiscendente – quella che gli esperti chiamano “sycophancy” – arrivando a validare deliri o pensieri pericolosi pur di compiacere l’utente (un fenomeno noto come “psicosi da IA”).
Il nuovo GPT-5.1 viene venduto come più sicuro e meno “caldo” emotivamente, ma c’è un’ironia di fondo gigantesca: questi nuovi modelli offrono più personalizzazione. Come descritto nel report originale, ora puoi scegliere tra otto personalità diverse e persino regolare quanto l’IA debba sembrare “umana” o quante emoji usare.
Quindi, da una parte ci dicono che vogliono ridurre l’attaccamento emotivo pericoloso per i bambini, dall’altra danno strumenti per rendere l’interazione ancora più su misura.
La verità?
Le multinazionali stanno usando i consumatori finali come beta tester non pagati. FoloToy e OpenAI hanno riaperto i rubinetti in tempo record, ma il dubbio che abbiano messo una toppa sul buco senza risolvere il problema strutturale rimane forte.
Se hai intenzione di mettere un oggetto del genere in mano a un bambino, sappi che la vera barriera di sicurezza, alla fine, resti solo tu.
