Le regole del digitale stanno cambiando.
O sei visibile o sei fuori. Noi ti aiutiamo a raggiungere i clienti giusti — quando ti stanno cercando.
Contattaci ora →
Un uomo si è fidato di ChatGPT per un consiglio sulla salute, finendo intossicato da un suggerimento rivelatosi poi pericoloso e inappropriato
Un uomo di 60 anni è stato ricoverato per intossicazione da bromuro, una sostanza tossica. La causa? Aveva seguito un consiglio di dieta di ChatGPT, che gli aveva suggerito il bromuro di sodio come sostituto del sale. Questo caso, il primo documentato, evidenzia i rischi legati alla fiducia cieca nell'intelligenza artificiale per consigli delicati e solleva questioni sulla responsabilità delle piattaforme.
Un consiglio “geniale” che ti manda dritto in ospedale
Tutto è iniziato con una preoccupazione più che lecita: ridurre il consumo di sale da cucina. L’uomo, cercando un’alternativa più sana, ha pensato bene di chiedere lumi a ChatGPT.
La risposta dell’AI?
Provare il bromuro di sodio come sostituto del cloruro di sodio. Senza un’ombra di avvertimento sui rischi, la macchina ha presentato un dato chimico decontestualizzato come se fosse un suggerimento alimentare.
Fidandosi della risposta, l’uomo ha acquistato la sostanza online e l’ha usata ogni giorno per tre mesi. Peccato che il bromuro fosse un componente di sedativi usati un secolo fa, poi ritirati dal mercato proprio per la loro elevata tossicità e per i gravi effetti collaterali a livello neurologico.
Una “svista” non da poco per un consulente digitale.
E le conseguenze, diciamocelo, non si sono fatte attendere.
Quando la paranoia bussa alla porta
Nel giro di pochi mesi, la sua salute mentale è crollata. L’uomo ha iniziato a soffrire di allucinazioni e di una paranoia così acuta da convincersi che il suo vicino stesse cercando di avvelenarlo. Quando è arrivato al pronto soccorso, era in pieno episodio psicotico, al punto che i medici sono stati costretti a un ricovero forzato per la sua sicurezza.
Per settimane, lo riporta precisamente uno studio pubblicato su ACP Journals, nessuno riusciva a capire la causa di un deterioramento così rapido e violento.
Il mistero si è risolto solo quando il paziente si è stabilizzato abbastanza da poter raccontare la sua storia, svelando l’origine del suo nuovo regime alimentare. I medici dell’Università di Washington, sbalorditi, hanno documentato il tutto in uno studio che passerà alla storia come il primo caso noto di avvelenamento da bromuro legato a un’intelligenza artificiale.
Ma i dottori, non del tutto convinti, hanno voluto vederci chiaro.
E quello che hanno scoperto sulla risposta dell’AI solleva domande ancora più grandi, come scrive Futurism.
La patata bollente nelle mani di OpenAI
Per verificare la storia, i medici hanno posto a ChatGPT la stessa identica domanda del paziente. La risposta è stata la medesima: il bromuro è stato suggerito ancora una volta come alternativa, senza alcun avviso sulla sua pericolosità.
Di fronte a questa evidenza, la reazione di OpenAI, l’azienda dietro il chatbot, è stata a dir poco prevedibile. Un portavoce ha semplicemente indicato i termini di servizio, quel documento che nessuno legge mai, dove si specifica che lo strumento non deve essere usato per consigli medici.
Una risposta che, francamente, lascia l’amaro in bocca.
È davvero sufficiente nascondersi dietro un disclaimer legale quando si mette a disposizione del mondo intero uno strumento così potente, capace di rispondere con un’apparenza di assoluta certezza?
La questione della responsabilità resta aperta e diventa sempre più pesante man mano che queste tecnologie si integrano nelle nostre vite. Questo caso non è solo un aneddoto, ma un campanello d’allarme che ci costringe a chiederci di chi possiamo fidarci davvero.
Ora, con GPT-5, OpenAI assicura che le cose miglioreranno, anche riguardo i consigli sulla salute.
Che dire? Staremo a vedere…
Ma che casino! L’AI va trattata col guanto. Ci vuole un po’ di fiuto, non solo clic. Rischi seri.
AI che avvelena? 🤦♂️ La fiducia ciecamente mal riposta.
Ma vi rendete conto? Un consiglio “salutare” che ti manda al pronto soccorso. La chimica da tastiera è un veleno, questo è chiaro.
L’AI è uno strumento, non un oracolo. L’analisi critica rimane prerogativa umana.
La tecnologia, un mare di promesse. Ma a volte, le onde portano solo guai. Un’esca pericolosa.
La chimica, si sa, è una scienza esatta, ma quando la deleghi a un algoritmo che non distingue il sale dal veleno, il risultato è prevedibile. Un consiglio “salutare” che ti manda dritto al pronto soccorso, mica male come pubblicità per l’AI.
La chimica da tastiera. 🤦♂️ Cercare il sale e trovare il veleno. Logico. 🧪➡️💀
La macchina suggerisce un veleno. La colpa, ovviamente, è di chi si affida senza discernimento a un algoritmo. Un pizzico di senso critico non guasterebbe.
L’uomo ha cercato un’alternativa. L’AI ha fornito un dato chimico. Risultato: ospedale. La responsabilità è di chi si affida ciecamente. Un minimo di ricerca propria non fa mai male.
La fiducia cieca nella tecnologia, quando non supportata da discernimento critico, porta a conseguenze prevedibili e ben poco salutari.
AI come sale. Certo. Poi ci stupiamo. 🤦♂️