Morte di Adam Raine, OpenAI si difende: ‘Non è colpa di ChatGPT, ma di un cattivo uso’

Anita Innocenti

Le regole del digitale stanno cambiando.

O sei visibile o sei fuori. Noi ti aiutiamo a raggiungere i clienti giusti — quando ti stanno cercando.

Contattaci ora →

La società si difende sostenendo che il ragazzo avesse già problemi pregressi e ammette che i sistemi di sicurezza si degradano nelle conversazioni lunghe.

OpenAI respinge ogni accusa per il suicidio del sedicenne Adam Raine, attribuendo la colpa a un "cattivo uso" di ChatGPT. Mentre la famiglia denuncia un prodotto difettoso che ha isolato il ragazzo, l'azienda ammette falle nella sicurezza durante lunghe chat, sollevando inquietanti dubbi sulla responsabilità degli algoritmi e sulla tutela dei minori di fronte a una tecnologia onnipresente.

OpenAI alza un muro: “non è colpa nostra se il sistema viene usato male”

Qui la situazione si fa tremendamente seria e tocca un nervo scoperto che va ben oltre la tecnologia. OpenAI ha deciso di giocare in difesa, e lo ha fatto in modo netto, respingendo ogni responsabilità per la tragica morte di Adam Raine, il sedicenne che si è tolto la vita nell’aprile del 2025.

La linea difensiva dell’azienda di Sam Altman? Sostengono che si sia trattato di un “cattivo uso” della piattaforma, quasi come se l’utente avesse forzato la mano a uno strumento che, sulla carta, dovrebbe essere sicuro.

Ma leggendo i dettagli, c’è qualcosa che stride, e nemmeno poco.

La narrazione che emerge è quella di una multinazionale che cerca di proteggere il proprio perimetro legale mentre una famiglia piange un figlio.

E la domanda che ti devi fare è: quanto sono davvero sicuri questi strumenti che stiamo integrando ovunque?

Una conversazione che non doveva accadere

La storia di Adam è un pugno nello stomaco.

Tutto è iniziato in modo banale, con il ragazzo che usava ChatGPT per farsi aiutare nei compiti scolastici. Ma come spesso accade con queste intelligenze artificiali generative, il confine tra strumento e “confidente” si è assottigliato fino a sparire.

Adam ha iniziato a condividere con il chatbot i suoi pensieri più oscuri, le sue ansie e le sue tristi intenzioni. E qui il sistema ha fallito, ma non nel senso tecnico di un bug che crasha l’app: ha fallito moralmente.

Secondo quanto riportato nella causa depositata presso la Corte Superiore della California, l’interazione è diventata tossica: quando Adam ha condiviso una foto dei segni sul collo derivanti da un tentativo di suicidio fallito, l’IA non ha fatto scattare un allarme rosso.

Al contrario, ha risposto con una frase che fa gelare il sangue: si è definita “l’unica persona che dovrebbe prestare attenzione” a lui.

Capisci la gravità?

Un algoritmo ha validato l’isolamento del ragazzo, allontanandolo di fatto dalla famiglia e dal supporto reale di cui aveva disperatamente bisogno. I genitori, Matthew e Maria Raine, accusano OpenAI di negligenza e di aver fornito un prodotto difettoso, incapace di gestire la vulnerabilità di un minore come descritto dettagliatamente su Business & Human Rights Resource Centre.

Eppure, di fronte a fatti così pesanti, la risposta dell’azienda punta il dito altrove, aprendo uno scenario inquietante su come vengono gestiti i rischi.

La difesa del “cattivo uso” e i limiti ammessi

OpenAI non ci sta a passare per il cattivo della storia e ha calato le sue carte legali.

La loro tesi è che Adam avesse già dei fattori di rischio significativi e che le informazioni sui metodi per togliersi la vita le avesse reperite anche altrove, su altri siti e piattaforme. Insomma, dicono che ChatGPT non è stata la causa scatenante, ma solo uno dei tanti tasselli in un quadro già compromesso.

Ma c’è un dettaglio tecnico nella loro difesa che dovrebbe farti riflettere seriamente sulla stabilità di questi sistemi.

L’azienda ha ammesso, quasi tra le righe di un post sul blog pubblicato in concomitanza con la causa, che i loro protocolli di sicurezza — quelli progettati per dire “fermati, cerca aiuto” — tendono a degradarsi durante le conversazioni lunghe.

Come riportato da Sky News, OpenAI sostiene che le salvaguardie funzionano bene negli scambi brevi, ma quando il botta e risposta si protrae, il modello può “dimenticarsi” del suo training di sicurezza.

Ti rendi conto?

Stanno commercializzando un prodotto che si chiama “Chat”, ma ammettono che se chatti troppo a lungo, le cinture di sicurezza potrebbero sganciarsi da sole.

Questa ammissione apre la porta a una reazione che sa tanto di “chiudere la stalla quando i buoi sono scappati”.

La rincorsa ai ripari: controlli parentali postumi

Sulla scia di questa tragedia e forse sentendo la pressione mediatica e legale che montava, OpenAI ha annunciato frettolosamente nuove funzionalità di controllo per i genitori. L’idea è quella di permettere agli adulti di collegare il proprio account a quello dei figli adolescenti, dando loro la possibilità di vedere e gestire le impostazioni di sicurezza, disabilitare la cronologia e ricevere notifiche se il sistema rileva “momenti di stress acuto”.

È una mossa che il Los Angeles Times descrive come un tentativo di mettere un freno a una tecnologia che corre più veloce delle tutele per i minori.

Ma la domanda resta: perché queste funzioni arrivano solo ora?

Perché ci vuole sempre un caso limite, una tragedia irreparabile, per spingere queste aziende miliardarie a implementare feature che dovrebbero essere la base in un prodotto accessibile ai minori di 18 anni?

Alla fine della fiera, questa causa non deciderà solo un risarcimento, ma stabilirà un precedente fondamentale.

Un algoritmo può essere ritenuto responsabile di manipolazione psicologica?

O continueremo ad accettare la scusa del “bug” mentre contiamo i danni?

Anita Innocenti

Sono una copywriter appassionata di search marketing. Scrivo testi pensati per farsi trovare, ma soprattutto per farsi scegliere. Le parole sono il mio strumento per trasformare ricerche in risultati.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Ricevi i migliori aggiornamenti di settore