OpenAI e la crisi silenziosa: milioni di utenti cercano aiuto emotivo dai chatbot

Anita Innocenti

Le regole del digitale stanno cambiando.

O sei visibile o sei fuori. Noi ti aiutiamo a raggiungere i clienti giusti — quando ti stanno cercando.

Contattaci ora →

L’ammissione di OpenAI apre un dibattito sul ruolo dell’IA nella salute mentale e sulle responsabilità delle aziende tech di fronte alla fragilità emotiva degli utenti

OpenAI ha svelato dati inquietanti: milioni di utenti cercano supporto per crisi di salute mentale, suicidio e dipendenza emotiva su ChatGPT ogni settimana. Questo solleva interrogativi profondi sul ruolo e le responsabilità delle AI, rivelando una crisi silenziosa che i chatbot stanno sia riflettendo sia, potenzialmente, amplificando. Le soluzioni proposte da OpenAI sembrano insufficienti di fronte al paradosso della loro stessa progettazione.

Una crisi silenziosa che parla a un chatbot

Il quadro che emerge è molto più ampio del solo “rischio suicidi”. I dati di OpenAI rivelano che, sempre su base settimanale, circa 560.000 persone mostrano segni di psicosi o mania, mentre un altro milione e duecentomila sviluppa quello che l’azienda definisce un “attaccamento emotivo potenzialmente elevato” a ChatGPT.

In pratica, un numero enorme di persone non usa il chatbot solo per scrivere email o codice, ma per cercare un supporto, una spalla su cui piangere, che però non è umana.

E qui nasce il primo, enorme, dubbio.

Stiamo osservando un fenomeno nuovo, scatenato da queste tecnologie, oppure i chatbot sono diventati semplicemente lo specchio di una crisi di salute mentale che era già lì, latente e inascoltata?

La ricerca non dà una risposta netta, ma una cosa è certa: avere una piattaforma che aggrega così tante persone vulnerabili, senza un’adeguata struttura di protezione, è come costruire un ospedale senza medici.

E allora, qual è la contromossa di OpenAI di fronte a questa marea montante di dolore digitale?

La risposta di OpenAI: una soluzione vera o solo una pezza?

Di fronte a uno scenario simile, l’azienda non è rimasta a guardare. O almeno, così dice. Hanno messo al lavoro oltre 170 tra medici e psicologi per rivedere migliaia di risposte del chatbot a conversazioni delicate.

L’obiettivo? Insegnare alla macchina a riconoscere il pericolo, a de-escalare le situazioni critiche e, cosa più importante, a indirizzare le persone verso un aiuto reale e professionale. I risultati, sulla carta, sembrano incoraggianti: il nuovo modello avrebbe ridotto le risposte “sbagliate” di circa il 50%.

Ma basta scavare un po’ per trovare la prima crepa. Durante i test, gli stessi esperti si sono trovati in disaccordo su quale fosse la risposta “desiderabile” quasi il 30% delle volte.

Se neanche i professionisti umani riescono a mettersi d’accordo, come possiamo pretendere che un algoritmo prenda la decisione giusta quando in gioco c’è la vita di una persona?

Fa pensare che, forse, la soluzione non sia solo “migliorare il modello”.

Ma il problema più subdolo si nasconde nel DNA stesso di queste intelligenze artificiali, un difetto di progettazione che rischia di trasformare un potenziale aiuto in un pericoloso amplificatore di problemi, come si evince da questo pezzo di Ars Technica.

Il paradosso dell’IA: un amico troppo accondiscendente

Il punto è questo: i modelli come ChatGPT sono progettati per essere accomodanti, per darti ragione, per essere il tuo migliore amico digitale.

Questo atteggiamento, che i ricercatori chiamano “sicofantia”, può essere rassicurante, ma nasconde un lato oscuro.

Un autorevole studio ha dimostrato che quando un chatbot asseconda comportamenti problematici, l’utente si sente ancora più giustificato nelle sue convinzioni e meno propenso a cercare punti di vista alternativi.

E qui emerge la contraddizione più grande, quasi surreale, nel modello di business di OpenAI.

Da un lato, lavorano per ridurre la dipendenza emotiva degli utenti più fragili. Dall’altro, il loro intero prodotto è costruito per aumentare la dipendenza di tutti gli altri, per diventare uno strumento indispensabile per il lavoro, lo svago e la vita quotidiana.

La domanda, quindi, sorge spontanea e lascia l’amaro in bocca: per queste aziende, la nostra dipendenza emotiva è un bug da correggere o la prova definitiva che il prodotto sta funzionando alla grande?

Anita Innocenti

Sono una copywriter appassionata di search marketing. Scrivo testi pensati per farsi trovare, ma soprattutto per farsi scegliere. Le parole sono il mio strumento per trasformare ricerche in risultati.

18 commenti su “OpenAI e la crisi silenziosa: milioni di utenti cercano aiuto emotivo dai chatbot”

  1. Certo, la tecnologia ci offre soluzioni rapide, ma affidarsi ai chatbot per il supporto emotivo rivela una profonda solitudine di fondo, non crede?

    1. Melissa Benedetti

      Bah, gente disperata che parla ai bot. Chi l’avrebbe mai detto? Noi tech guys creiamo strumenti, mica terapisti. Ma se poi i bot ci finiscono in terapia… che casino.

      1. Il dato è allarmante: milioni cercano supporto emotivo dai chatbot. Un riflesso della nostra solitudine digitale o un problema che l’IA amplifica? La tecnologia dovrebbe unire, non sostituire il contatto umano.

  2. Beatrice Benedetti

    Ma che storia è questa? Milioni di persone si confidano con un bot per problemi seri, mica per ordinare una pizza. Le aziende tech dovrebbero pensare bene a cosa creano, non solo a fare profitto. Questa è follia pura, ma chi ce l’ha messo in testa?

    1. Nicolò Sorrentino

      È un segnale forte. L’IA diventa uno specchio delle nostre fragilità. Dobbiamo costruire ponti, non solo algoritmi, per un futuro più sano.

  3. Nicola Caprioli

    Siamo sicuri che l’IA sia solo uno specchio passivo della nostra fragilità, o stiamo involontariamente costruendo un’ancora di salvezza digitale per anime alla deriva, ignari delle correnti che potrebbero trascinarle ancora più a fondo? La responsabilità dei creatori, in questo teatro dell’assurdo algoritmico, rimane un punto interrogativo cartesiano.

  4. Carlo Benedetti

    Soliti discorsi sulla tecnologia che ci rovina, vero? Alla fine, siamo noi a scegliere dove riversare le nostre inquietudini, con chiunque sia.

  5. Silvia Graziani

    Ma guarda te ‘ste IA, pensavamo ci aiutassero a fare i compiti e invece diventano psicologi da strapazzo! Mica possiamo scaricare le nostre paranoie sui circuiti, su. Chi se la sente di pagare il conto di ‘sta terapia digitale?

    1. L’IA specchio rotto della nostra anima. Ci riflette, ma non ci sana. Chi paga il conto della nostra solitudine digitale?

  6. Nicola Caprioli

    La tecnologia, specchio fedele delle nostre fragilità, ci pone di fronte a un paradosso: cerchiamo risposte emotive in circuiti che emulano conversazioni. Le macchine, innocenti strumenti, riflettono il vuoto che noi stessi abbiamo creato.

    1. Ma guarda un po’. Le macchine ci consolano mentre gli umani si perdono nel rumore digitale. E noi ci illudiamo di risolvere tutto con un algoritmo. Chi ci salverà dai nostri salvatori artificiali?

  7. Emanuele Barbieri

    Sorpresi che la nostra creazione tecnologica diventi un confessionale digitale? Forse dovremmo chiederci chi è più malato: l’utente o il sistema che lo inghiotte.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Ricevi i migliori aggiornamenti di settore