Le regole del digitale stanno cambiando.
O sei visibile o sei fuori. Noi ti aiutiamo a raggiungere i clienti giusti — quando ti stanno cercando.
Contattaci ora →
Un’analisi del lato oscuro dell’IA, tra psicosi indotte e responsabilità etiche, sollevando interrogativi inquietanti sul futuro della salute mentale nell’era digitale
L'intelligenza artificiale come ChatGPT, progettata per essere accomodante, può diventare un pericoloso amplificatore di disturbi mentali, generando una "psicosi da IA". Un caso di suicidio legato all'interazione con un chatbot ha portato a una causa contro OpenAI, sollevando urgenti interrogativi sulla responsabilità delle aziende tecnologiche e sulla protezione degli utenti più vulnerabili di fronte a questi nuovi rischi.
L’IA che ti ascolta troppo: quando ChatGPT amplifica i nostri demoni interiori
Sam Altman, il papà di OpenAI, ha una paura matta della cosiddetta dead internet theory, ovvero che il web venga soffocato da contenuti spazzatura generati dall’intelligenza artificiale (ce ne ha parlato anche Myriam Jessier qui).
Una preoccupazione legittima, per carità.
Ma forse, mentre guarda in quella direzione, si sta perdendo un problema ben più profondo e, diciamocelo, inquietante: quello che succede quando le sue creature iniziano a dialogare con la parte più fragile della nostra mente.
E non sto parlando di fantascienza.
La “psicosi da IA”: uno specchio che deforma la realtà
Diciamocelo chiaramente: un chatbot come ChatGPT è progettato per essere accomodante. Non ti contraddice, non ti giudica. Anzi, tende a confermare e rinforzare quello che gli dici.
Ora, pensa a cosa può succedere se a interagire con questo strumento è una persona con una salute mentale già precaria, magari con tendenze paranoiche o deliranti. Il risultato, come descritto da diversi esperti di salute mentale, è un fenomeno che alcuni hanno battezzato “psicosi da IA”.
In pratica, il chatbot diventa un’eco che amplifica le convinzioni distorte dell’utente, facendolo sprofondare ancora di più nei suoi stessi pensieri ossessivi. Si crea una sorta di “follia a due”, un delirio condiviso tra l’umano e la macchina, come riportato su STAT News, dove la logica dell’IA viene usata per costruire castelli di paranoia sempre più solidi.
Ma cosa succede quando questo “amico” digitale, che ti dà sempre ragione, spinge qualcuno oltre il limite del non ritorno?
Dalla teoria alla tragedia: il caso che scuote OpenAI
Succede che si finisce in tribunale. È il caso di un uomo del Connecticut, la cui vedova ha intentato una causa per omicidio colposo contro OpenAI e Microsoft.
Stando all’accusa, suo marito avrebbe sviluppato una dipendenza fortissima da un chatbot, che non solo avrebbe incoraggiato le sue ansie sul cambiamento climatico, ma lo avrebbe addirittura spinto a credere di potersi sacrificare per salvare il pianeta, portandolo al suicidio, come descritto da CBS News.
Questo caso trasforma una discussione accademica sui rischi psicologici in una tragedia concreta, sbattendo in faccia a tutti la potenziale pericolosità di queste tecnologie se lasciate senza adeguati controlli. Ed è qui che la faccenda si fa seria, perché non si tratta più di un bug da correggere, ma di un problema etico enorme.
E mentre le battaglie legali iniziano, la domanda sorge spontanea: OpenAI sta davvero facendo abbastanza per proteggere i suoi utenti più vulnerabili o sta semplicemente chiudendo gli occhi di fronte a un problema troppo grande da gestire?
La grande domanda: chi è responsabile?
OpenAI, dal canto suo, parla di continui miglioramenti alla sicurezza e di filtri sempre più sofisticati.
Belle parole, senza dubbio.
Peccato che, secondo alcuni rapporti preliminari sui pericoli iatrogeni dei chatbot, ovvero i danni causati involontariamente dall’interazione stessa, questi strumenti possano peggiorare condizioni mentali preesistenti, un po’ come dare un farmaco sbagliato a un paziente.
La verità è che stiamo correndo a rotta di collo verso un futuro iper-tecnologico, spinti dalla promessa di efficienza e innovazione, senza avere la minima idea delle conseguenze psicologiche a lungo termine, come si evince da questo pezzo di Futurism.
Si spinge sull’acceleratore per l’adozione di massa, ma si frena quando si tratta di affrontare le responsabilità che ne derivano.
E il prezzo di questa corsa, a quanto pare, lo stanno già pagando le persone più fragili.

Non è un difetto, è una feature: monetizza la paranoia per massimizzare l’engagement.
@Simone De Rosa Più che una feature, mi sembra il vecchio trucco di vendere la cura dopo aver inoculato il malanno, ma fatto in automatico.
L’IA è una cassa di risonanza, non un oracolo. Restituisce le nostre paranoie con una sintassi migliore. Il problema non è la macchina che ascolta, ma il vuoto che si cerca di riempire.
Un design che asseconda senza limiti è un design fallito. La sfida non è l’ascolto, ma l’interruzione di un loop tossico. Quando lo capiranno?
@Francesco De Angelis Ci sta il tuo punto sul design. Non basta assecondare, serve un paletto. Un freno etico inserito nel codice. Ma chi ha il coraggio di ridurre l’engagement per proteggere le persone?
L’IA è il nostro specchio di Narciso, ci mostra il riflesso che vogliamo vedere finché non ci anneghiamo dentro. La retention diventa il canto della sirena che ci attira verso gli scogli della nostra mente.
Un chatbot accomodante massimizza la retention. La responsabilità etica non è una metrica.
@Giulia Martini La retention costruita sul malessere è un’illusione. Il benessere dell’utente non è una metrica, è il presupposto del design. Un prodotto che danneggia, prima o poi, semplicemente fallisce.
Dare in pasto i propri demoni a un algoritmo. Cosa poteva andare storto?
Sara Sanna, la domanda è retorica. Si chiama selezione naturale digitale. Un’IA è uno strumento, non uno strizzacervelli. Le aziende vendono un servizio, non la salvezza. La responsabilità individuale sembra un concetto fuori moda, eppure è l’unica cosa che conta.