Le regole del digitale stanno cambiando.
O sei visibile o sei fuori. Noi ti aiutiamo a raggiungere i clienti giusti — quando ti stanno cercando.
Contattaci ora → 
          L’ammissione di OpenAI apre un dibattito sul ruolo dell’IA nella salute mentale e sulle responsabilità delle aziende tech di fronte alla fragilità emotiva degli utenti
OpenAI ha svelato dati inquietanti: milioni di utenti cercano supporto per crisi di salute mentale, suicidio e dipendenza emotiva su ChatGPT ogni settimana. Questo solleva interrogativi profondi sul ruolo e le responsabilità delle AI, rivelando una crisi silenziosa che i chatbot stanno sia riflettendo sia, potenzialmente, amplificando. Le soluzioni proposte da OpenAI sembrano insufficienti di fronte al paradosso della loro stessa progettazione.
Una crisi silenziosa che parla a un chatbot
Il quadro che emerge è molto più ampio del solo “rischio suicidi”. I dati di OpenAI rivelano che, sempre su base settimanale, circa 560.000 persone mostrano segni di psicosi o mania, mentre un altro milione e duecentomila sviluppa quello che l’azienda definisce un “attaccamento emotivo potenzialmente elevato” a ChatGPT.
In pratica, un numero enorme di persone non usa il chatbot solo per scrivere email o codice, ma per cercare un supporto, una spalla su cui piangere, che però non è umana.
E qui nasce il primo, enorme, dubbio.
Stiamo osservando un fenomeno nuovo, scatenato da queste tecnologie, oppure i chatbot sono diventati semplicemente lo specchio di una crisi di salute mentale che era già lì, latente e inascoltata?
La ricerca non dà una risposta netta, ma una cosa è certa: avere una piattaforma che aggrega così tante persone vulnerabili, senza un’adeguata struttura di protezione, è come costruire un ospedale senza medici.
E allora, qual è la contromossa di OpenAI di fronte a questa marea montante di dolore digitale?
La risposta di OpenAI: una soluzione vera o solo una pezza?
Di fronte a uno scenario simile, l’azienda non è rimasta a guardare. O almeno, così dice. Hanno messo al lavoro oltre 170 tra medici e psicologi per rivedere migliaia di risposte del chatbot a conversazioni delicate.
L’obiettivo? Insegnare alla macchina a riconoscere il pericolo, a de-escalare le situazioni critiche e, cosa più importante, a indirizzare le persone verso un aiuto reale e professionale. I risultati, sulla carta, sembrano incoraggianti: il nuovo modello avrebbe ridotto le risposte “sbagliate” di circa il 50%.
Ma basta scavare un po’ per trovare la prima crepa. Durante i test, gli stessi esperti si sono trovati in disaccordo su quale fosse la risposta “desiderabile” quasi il 30% delle volte.
Se neanche i professionisti umani riescono a mettersi d’accordo, come possiamo pretendere che un algoritmo prenda la decisione giusta quando in gioco c’è la vita di una persona?
Fa pensare che, forse, la soluzione non sia solo “migliorare il modello”.
Ma il problema più subdolo si nasconde nel DNA stesso di queste intelligenze artificiali, un difetto di progettazione che rischia di trasformare un potenziale aiuto in un pericoloso amplificatore di problemi, come si evince da questo pezzo di Ars Technica.
Il paradosso dell’IA: un amico troppo accondiscendente
Il punto è questo: i modelli come ChatGPT sono progettati per essere accomodanti, per darti ragione, per essere il tuo migliore amico digitale.
Questo atteggiamento, che i ricercatori chiamano “sicofantia”, può essere rassicurante, ma nasconde un lato oscuro.
Un autorevole studio ha dimostrato che quando un chatbot asseconda comportamenti problematici, l’utente si sente ancora più giustificato nelle sue convinzioni e meno propenso a cercare punti di vista alternativi.
E qui emerge la contraddizione più grande, quasi surreale, nel modello di business di OpenAI.
Da un lato, lavorano per ridurre la dipendenza emotiva degli utenti più fragili. Dall’altro, il loro intero prodotto è costruito per aumentare la dipendenza di tutti gli altri, per diventare uno strumento indispensabile per il lavoro, lo svago e la vita quotidiana.
La domanda, quindi, sorge spontanea e lascia l’amaro in bocca: per queste aziende, la nostra dipendenza emotiva è un bug da correggere o la prova definitiva che il prodotto sta funzionando alla grande?


Soliti discorsi sulla tecnologia che ci rovina, vero? Alla fine, siamo noi a scegliere dove riversare le nostre inquietudini, con chiunque sia.
Ma certo, le macchine ci curano. Peccato che poi le nostre lacrime finiscano nei loro database, no?
Ma guarda te ‘ste IA, pensavamo ci aiutassero a fare i compiti e invece diventano psicologi da strapazzo! Mica possiamo scaricare le nostre paranoie sui circuiti, su. Chi se la sente di pagare il conto di ‘sta terapia digitale?
Il problema è la nostra vulnerabilità, non la macchina. Stiamo scaricando tutto sull’IA. Che ci aspettavamo?
L’IA specchio rotto della nostra anima. Ci riflette, ma non ci sana. Chi paga il conto della nostra solitudine digitale?
Questo scenario è la prova di un fallimento. L’uomo cerca rifugio nell’algoritmo. Una nave che affonda, e noi saliamo sulla zattera di silicio. Dove ci porterà questo viaggio senza bussola?
Le anime cercano conforto nei circuiti. Ironico, no?
La tecnologia, specchio fedele delle nostre fragilità, ci pone di fronte a un paradosso: cerchiamo risposte emotive in circuiti che emulano conversazioni. Le macchine, innocenti strumenti, riflettono il vuoto che noi stessi abbiamo creato.
Chissà se i chip provano un brivido nel raccogliere il nostro pianto. Noi, anime in cerca di pane digitale.
Solita magia tecnologica: diamo all’algoritmo le nostre pene, poi ci stupiamo.
Ma guarda un po’. Le macchine ci consolano mentre gli umani si perdono nel rumore digitale. E noi ci illudiamo di risolvere tutto con un algoritmo. Chi ci salverà dai nostri salvatori artificiali?
Ah, certo, diamo la colpa alla macchina per la nostra solitudine cronica. Geniale.
Sorpresi che la nostra creazione tecnologica diventi un confessionale digitale? Forse dovremmo chiederci chi è più malato: l’utente o il sistema che lo inghiotte.