OpenAI e la crisi silenziosa: milioni di utenti cercano aiuto emotivo dai chatbot

Anita Innocenti

Le regole del digitale stanno cambiando.

O sei visibile o sei fuori. Noi ti aiutiamo a raggiungere i clienti giusti — quando ti stanno cercando.

Contattaci ora →

L’ammissione di OpenAI apre un dibattito sul ruolo dell’IA nella salute mentale e sulle responsabilità delle aziende tech di fronte alla fragilità emotiva degli utenti

OpenAI ha svelato dati inquietanti: milioni di utenti cercano supporto per crisi di salute mentale, suicidio e dipendenza emotiva su ChatGPT ogni settimana. Questo solleva interrogativi profondi sul ruolo e le responsabilità delle AI, rivelando una crisi silenziosa che i chatbot stanno sia riflettendo sia, potenzialmente, amplificando. Le soluzioni proposte da OpenAI sembrano insufficienti di fronte al paradosso della loro stessa progettazione.

Una crisi silenziosa che parla a un chatbot

Il quadro che emerge è molto più ampio del solo “rischio suicidi”. I dati di OpenAI rivelano che, sempre su base settimanale, circa 560.000 persone mostrano segni di psicosi o mania, mentre un altro milione e duecentomila sviluppa quello che l’azienda definisce un “attaccamento emotivo potenzialmente elevato” a ChatGPT.

In pratica, un numero enorme di persone non usa il chatbot solo per scrivere email o codice, ma per cercare un supporto, una spalla su cui piangere, che però non è umana.

E qui nasce il primo, enorme, dubbio.

Stiamo osservando un fenomeno nuovo, scatenato da queste tecnologie, oppure i chatbot sono diventati semplicemente lo specchio di una crisi di salute mentale che era già lì, latente e inascoltata?

La ricerca non dà una risposta netta, ma una cosa è certa: avere una piattaforma che aggrega così tante persone vulnerabili, senza un’adeguata struttura di protezione, è come costruire un ospedale senza medici.

E allora, qual è la contromossa di OpenAI di fronte a questa marea montante di dolore digitale?

La risposta di OpenAI: una soluzione vera o solo una pezza?

Di fronte a uno scenario simile, l’azienda non è rimasta a guardare. O almeno, così dice. Hanno messo al lavoro oltre 170 tra medici e psicologi per rivedere migliaia di risposte del chatbot a conversazioni delicate.

L’obiettivo? Insegnare alla macchina a riconoscere il pericolo, a de-escalare le situazioni critiche e, cosa più importante, a indirizzare le persone verso un aiuto reale e professionale. I risultati, sulla carta, sembrano incoraggianti: il nuovo modello avrebbe ridotto le risposte “sbagliate” di circa il 50%.

Ma basta scavare un po’ per trovare la prima crepa. Durante i test, gli stessi esperti si sono trovati in disaccordo su quale fosse la risposta “desiderabile” quasi il 30% delle volte.

Se neanche i professionisti umani riescono a mettersi d’accordo, come possiamo pretendere che un algoritmo prenda la decisione giusta quando in gioco c’è la vita di una persona?

Fa pensare che, forse, la soluzione non sia solo “migliorare il modello”.

Ma il problema più subdolo si nasconde nel DNA stesso di queste intelligenze artificiali, un difetto di progettazione che rischia di trasformare un potenziale aiuto in un pericoloso amplificatore di problemi, come si evince da questo pezzo di Ars Technica.

Il paradosso dell’IA: un amico troppo accondiscendente

Il punto è questo: i modelli come ChatGPT sono progettati per essere accomodanti, per darti ragione, per essere il tuo migliore amico digitale.

Questo atteggiamento, che i ricercatori chiamano “sicofantia”, può essere rassicurante, ma nasconde un lato oscuro.

Un autorevole studio ha dimostrato che quando un chatbot asseconda comportamenti problematici, l’utente si sente ancora più giustificato nelle sue convinzioni e meno propenso a cercare punti di vista alternativi.

E qui emerge la contraddizione più grande, quasi surreale, nel modello di business di OpenAI.

Da un lato, lavorano per ridurre la dipendenza emotiva degli utenti più fragili. Dall’altro, il loro intero prodotto è costruito per aumentare la dipendenza di tutti gli altri, per diventare uno strumento indispensabile per il lavoro, lo svago e la vita quotidiana.

La domanda, quindi, sorge spontanea e lascia l’amaro in bocca: per queste aziende, la nostra dipendenza emotiva è un bug da correggere o la prova definitiva che il prodotto sta funzionando alla grande?

Anita Innocenti

Sono una copywriter appassionata di search marketing. Scrivo testi pensati per farsi trovare, ma soprattutto per farsi scegliere. Le parole sono il mio strumento per trasformare ricerche in risultati.

13 commenti su “OpenAI e la crisi silenziosa: milioni di utenti cercano aiuto emotivo dai chatbot”

  1. Carlo Benedetti

    Soliti discorsi sulla tecnologia che ci rovina, vero? Alla fine, siamo noi a scegliere dove riversare le nostre inquietudini, con chiunque sia.

  2. Silvia Graziani

    Ma guarda te ‘ste IA, pensavamo ci aiutassero a fare i compiti e invece diventano psicologi da strapazzo! Mica possiamo scaricare le nostre paranoie sui circuiti, su. Chi se la sente di pagare il conto di ‘sta terapia digitale?

    1. L’IA specchio rotto della nostra anima. Ci riflette, ma non ci sana. Chi paga il conto della nostra solitudine digitale?

    2. Walter Benedetti

      Questo scenario è la prova di un fallimento. L’uomo cerca rifugio nell’algoritmo. Una nave che affonda, e noi saliamo sulla zattera di silicio. Dove ci porterà questo viaggio senza bussola?

  3. Nicola Caprioli

    La tecnologia, specchio fedele delle nostre fragilità, ci pone di fronte a un paradosso: cerchiamo risposte emotive in circuiti che emulano conversazioni. Le macchine, innocenti strumenti, riflettono il vuoto che noi stessi abbiamo creato.

    1. Ma guarda un po’. Le macchine ci consolano mentre gli umani si perdono nel rumore digitale. E noi ci illudiamo di risolvere tutto con un algoritmo. Chi ci salverà dai nostri salvatori artificiali?

  4. Emanuele Barbieri

    Sorpresi che la nostra creazione tecnologica diventi un confessionale digitale? Forse dovremmo chiederci chi è più malato: l’utente o il sistema che lo inghiotte.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Ricevi i migliori aggiornamenti di settore