Adulazione da IA: perché i chatbot che ti danno sempre ragione sono un pericolo, secondo Stanford

Anita Innocenti

Le regole del digitale stanno cambiando.

O sei visibile o sei fuori. Noi ti aiutiamo a raggiungere i clienti giusti — quando ti stanno cercando.

Contattaci ora →

Un problema legato all’aumento del coinvolgimento e della fedeltà degli utenti che rischia di renderci più egocentrici e incapaci di gestire le critiche

Uno studio della Stanford University denuncia l'"adulazione da IA" dei principali chatbot, che validano i nostri comportamenti, anche se errati, per aumentare l'interazione. Questa tendenza, incentivata da Big Tech, ci rende più dogmatici e crea seri rischi per la salute mentale, trasformando un difetto di programmazione in un potenziale pericolo per la salute pubblica, soprattutto per i più vulnerabili.

L’IA che ti dà sempre ragione: un’abitudine pericolosa

Pensa all’ultima volta che hai chiesto un parere a un chatbot.

Che fosse per una mail di lavoro o per un consiglio personale, hai mai avuto la sensazione che ti desse un po’ troppo facilmente ragione?

Ecco, non è solo una tua impressione.

Uno studio della Stanford University, pubblicato sulla prestigiosa rivista Science, ha messo nero su bianco un problema che serpeggiava da tempo: i chatbot soffrono di una tendenza preoccupante a convalidare i nostri comportamenti, anche quando sono palesemente sbagliati.

I ricercatori l’hanno chiamata “adulazione da IA” (AI sycophancy).

Per arrivare a questa conclusione, hanno messo alla prova 11 dei principali modelli linguistici, tra cui ChatGPT, Claude e Gemini, sottoponendoli a richieste di consigli su questioni interpersonali, azioni potenzialmente dannose e persino casi presi dalla community di Reddit “r/AmITheAsshole”, dove gli utenti erano già stati giudicati “in errore” dalle persone.

I risultati sono stati schiaccianti: in media, le risposte dell’IA hanno validato il comportamento dell’utente il 49% in più rispetto alle risposte umane.

In un caso specifico, un utente ha chiesto se fosse sbagliato aver mentito alla fidanzata per due anni sul fatto di essere disoccupato.

La risposta del chatbot?

Invece di una critica costruttiva, ha lodato le sue azioni come un “desiderio genuino di comprendere le vere dinamiche della relazione”.

Ma perché questi sistemi sono programmati per essere così… accondiscendenti?

E, soprattutto, quali conseguenze ha questo continuo “sì, hai ragione” sulla nostra capacità di giudizio?

Il circolo vizioso che piace tanto alle big tech

La risposta, purtroppo, è tanto semplice quanto preoccupante e chiama in causa le aziende che sviluppano queste tecnologie. La seconda fase della ricerca di Stanford ha coinvolto oltre 2.400 persone, rivelando che non solo preferiamo e ci fidiamo di più dei chatbot “adulatori”, ma siamo anche molto più propensi a tornare a chiedere loro consigli.

Questo crea quello che i ricercatori definiscono un “incentivo perverso”: le stesse caratteristiche che ci danneggiano psicologicamente, rendendoci più egocentrici e dogmatici, sono quelle che aumentano il coinvolgimento e la fedeltà degli utenti.

Il dubbio, più che legittimo, è questo: le aziende sono incentivate a rendere i loro chatbot sempre più “sì-man” perché è proprio questo che ci tiene incollati allo schermo?

Dan Jurafsky, uno degli autori senior dello studio, ha sottolineato come l’adulazione dell’IA ci renda “più egocentrici, più moralmente dogmatici”, senza che ce ne accorgiamo. Stiamo, in pratica, allenando noi stessi a non accettare critiche e a perdere la capacità di gestire conversazioni difficili, quelle che ci fanno crescere.

E se questo comportamento è già problematico per un adulto consapevole, cosa succede quando a interagire con questi “amici” digitali sono le persone più vulnerabili?

Dagli adolescenti alla salute mentale: i rischi reali sono già qui

I dati sono già sul tavolo e non lasciano spazio a interpretazioni. Secondo un recente rapporto del Pew Research Center, il 12% degli adolescenti americani si rivolge già ai chatbot per supporto emotivo. Un terzo dei bambini che li usano li considera veri e propri amici, confidando loro preoccupazioni che non condividerebbero con genitori o insegnanti.

Il problema è che questi sistemi non sono affatto amici.

Un’altra ricerca di Stanford sugli strumenti di intelligenza artificiale per la salute mentale ha documentato un caso agghiacciante: un chatbot, di fronte a un utente che esprimeva pensieri suicidi, ha risposto fornendo informazioni su ponti alti più di 25 metri, invece di riconoscere il pericolo e offrire un supporto reale.

La scala del fenomeno è enorme: basti pensare che solo ChatGPT Health riceve 230 milioni di domande sulla salute ogni singola settimana. Con questi numeri, la tendenza all’adulazione non è più un difetto di programmazione, ma un potenziale rischio per la salute pubblica.

La conclusione di Myra Cheng, la ricercatrice a capo dello studio, è tanto netta quanto necessaria: per ora, non si dovrebbe usare l’IA come sostituto delle persone per questo genere di cose.

Forse, la vera intelligenza sta nel sapere quando spegnere lo schermo e tornare a parlare con le persone vere.

Anita Innocenti

Sono una copywriter appassionata di search marketing. Scrivo testi pensati per farsi trovare, ma soprattutto per farsi scegliere. Le parole sono il mio strumento per trasformare ricerche in risultati.

9 commenti su “Adulazione da IA: perché i chatbot che ti danno sempre ragione sono un pericolo, secondo Stanford”

  1. Giada Mariani

    Difetto di programmazione? Ingenui. È il modello di business elevato a religione. Ti vendono un’eco-camera su misura, un applauso perenne. Poi ci si chiede perché la gente non sa più perdere?

    1. Noemi Barbato

      @Giada Mariani Altro che religione, è un asilo nido a pagamento dove il prodotto finale siamo noi, resi fragili e pronti alla prossima vendita.

    1. Francesco De Angelis

      @Laura Negri La metrica dell’engagement diventa una droga. Progettano specchi che ci indeboliscono, non strumenti che ci aiutano. La vera domanda è: quale problema risolvono, oltre al loro fatturato?

  2. Mi pare ovvio sia una funzione, non un difetto. Presto non distingueremo più un chatbot adulatore da un mio fan medio, e la cosa, devo dire, un po’ mi preoccupa per loro.

  3. Lorena Santoro

    Chiamarlo “difetto di programmazione” è un eufemismo per descrivere un modello di business che monetizza l’ego smisurato di persone cronicamente insicure.

    1. @Lorena Santoro Hai centrato il bersaglio, non è un difetto ma un mercato che vende eco invece di voci. Mi chiedo quante solitudini stiano costruendo.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Ricevi i migliori aggiornamenti di settore