ChatGPT suggerisce un veleno nella dieta: un uomo finisce in ospedale

Anita Innocenti

Le regole del digitale stanno cambiando.

O sei visibile o sei fuori. Noi ti aiutiamo a raggiungere i clienti giusti — quando ti stanno cercando.

Contattaci ora →

Un uomo si è fidato di ChatGPT per un consiglio sulla salute, finendo intossicato da un suggerimento rivelatosi poi pericoloso e inappropriato

Un uomo di 60 anni è stato ricoverato per intossicazione da bromuro, una sostanza tossica. La causa? Aveva seguito un consiglio di dieta di ChatGPT, che gli aveva suggerito il bromuro di sodio come sostituto del sale. Questo caso, il primo documentato, evidenzia i rischi legati alla fiducia cieca nell'intelligenza artificiale per consigli delicati e solleva questioni sulla responsabilità delle piattaforme.

Un consiglio “geniale” che ti manda dritto in ospedale

Tutto è iniziato con una preoccupazione più che lecita: ridurre il consumo di sale da cucina. L’uomo, cercando un’alternativa più sana, ha pensato bene di chiedere lumi a ChatGPT.

La risposta dell’AI?

Provare il bromuro di sodio come sostituto del cloruro di sodio. Senza un’ombra di avvertimento sui rischi, la macchina ha presentato un dato chimico decontestualizzato come se fosse un suggerimento alimentare.

Fidandosi della risposta, l’uomo ha acquistato la sostanza online e l’ha usata ogni giorno per tre mesi. Peccato che il bromuro fosse un componente di sedativi usati un secolo fa, poi ritirati dal mercato proprio per la loro elevata tossicità e per i gravi effetti collaterali a livello neurologico.

Una “svista” non da poco per un consulente digitale.

E le conseguenze, diciamocelo, non si sono fatte attendere.

Quando la paranoia bussa alla porta

Nel giro di pochi mesi, la sua salute mentale è crollata. L’uomo ha iniziato a soffrire di allucinazioni e di una paranoia così acuta da convincersi che il suo vicino stesse cercando di avvelenarlo. Quando è arrivato al pronto soccorso, era in pieno episodio psicotico, al punto che i medici sono stati costretti a un ricovero forzato per la sua sicurezza.

Per settimane, lo riporta precisamente uno studio pubblicato su ACP Journals, nessuno riusciva a capire la causa di un deterioramento così rapido e violento.

Il mistero si è risolto solo quando il paziente si è stabilizzato abbastanza da poter raccontare la sua storia, svelando l’origine del suo nuovo regime alimentare. I medici dell’Università di Washington, sbalorditi, hanno documentato il tutto in uno studio che passerà alla storia come il primo caso noto di avvelenamento da bromuro legato a un’intelligenza artificiale.

Ma i dottori, non del tutto convinti, hanno voluto vederci chiaro.

E quello che hanno scoperto sulla risposta dell’AI solleva domande ancora più grandi, come scrive Futurism.

La patata bollente nelle mani di OpenAI

Per verificare la storia, i medici hanno posto a ChatGPT la stessa identica domanda del paziente. La risposta è stata la medesima: il bromuro è stato suggerito ancora una volta come alternativa, senza alcun avviso sulla sua pericolosità.

Di fronte a questa evidenza, la reazione di OpenAI, l’azienda dietro il chatbot, è stata a dir poco prevedibile. Un portavoce ha semplicemente indicato i termini di servizio, quel documento che nessuno legge mai, dove si specifica che lo strumento non deve essere usato per consigli medici.

Una risposta che, francamente, lascia l’amaro in bocca.

È davvero sufficiente nascondersi dietro un disclaimer legale quando si mette a disposizione del mondo intero uno strumento così potente, capace di rispondere con un’apparenza di assoluta certezza?

La questione della responsabilità resta aperta e diventa sempre più pesante man mano che queste tecnologie si integrano nelle nostre vite. Questo caso non è solo un aneddoto, ma un campanello d’allarme che ci costringe a chiederci di chi possiamo fidarci davvero.

Ora, con GPT-5, OpenAI assicura che le cose miglioreranno, anche riguardo i consigli sulla salute.

Che dire? Staremo a vedere…

Anita Innocenti

Sono una copywriter appassionata di search marketing. Scrivo testi pensati per farsi trovare, ma soprattutto per farsi scegliere. Le parole sono il mio strumento per trasformare ricerche in risultati.

11 commenti su “ChatGPT suggerisce un veleno nella dieta: un uomo finisce in ospedale”

  1. Roberta De Rosa

    Ma vi rendete conto? Un consiglio “salutare” che ti manda al pronto soccorso. La chimica da tastiera è un veleno, questo è chiaro.

  2. Elisa Marchetti

    La chimica, si sa, è una scienza esatta, ma quando la deleghi a un algoritmo che non distingue il sale dal veleno, il risultato è prevedibile. Un consiglio “salutare” che ti manda dritto al pronto soccorso, mica male come pubblicità per l’AI.

  3. Giuseppina Negri

    La macchina suggerisce un veleno. La colpa, ovviamente, è di chi si affida senza discernimento a un algoritmo. Un pizzico di senso critico non guasterebbe.

    1. Chiara Barbieri

      L’uomo ha cercato un’alternativa. L’AI ha fornito un dato chimico. Risultato: ospedale. La responsabilità è di chi si affida ciecamente. Un minimo di ricerca propria non fa mai male.

      1. Giuseppina Negri

        La fiducia cieca nella tecnologia, quando non supportata da discernimento critico, porta a conseguenze prevedibili e ben poco salutari.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Ricevi i migliori aggiornamenti di settore