L’AI di Google e la salute: un pericolo quasi una volta su due

Anita Innocenti

Le regole del digitale stanno cambiando.

O sei visibile o sei fuori. Noi ti aiutiamo a raggiungere i clienti giusti — quando ti stanno cercando.

Contattaci ora →

L’intelligenza artificiale di Google nel campo medico si rivela inaffidabile, fornendo consigli errati o pericolosi nel 44% dei casi

L'intelligenza artificiale di Google, con le sue AI Overviews, si rivela un medico inaffidabile e pericoloso. Un'inchiesta del Guardian denuncia che quasi la metà delle risposte mediche è errata, con consigli potenzialmente letali. Di fronte a una tecnologia immatura che mette a rischio la salute degli utenti, la difesa di Google appare debole, scaricando di fatto la responsabilità sui cittadini.

Google gioca al dottore con la tua salute: e perde

Ti fideresti di un medico che, quasi una volta su due, ti dà un consiglio sbagliato o addirittura pericoloso?

Probabilmente no.

Eppure, è esattamente quello che sta succedendo con le AI Overviews di Google, le risposte generate dall’intelligenza artificiale che compaiono in cima ai risultati di ricerca.

Un’inchiesta approfondita condotta da The Guardian ha messo nero su bianco un dato allarmante: nel 44% delle ricerche mediche, l’IA di Google fornisce informazioni fuorvianti o palesemente errate, con alcuni consigli che potrebbero avere conseguenze gravissime.

La situazione è seria, perché non parliamo di errori marginali.

La tecnologia che dovrebbe semplificarci la vita rischia di trasformarsi in una minaccia silenziosa, proprio quando siamo più vulnerabili e in cerca di risposte.

Quando un consiglio sbagliato può costare la vita

Pensa a un paziente con cancro al pancreas. Una condizione delicatissima, dove ogni dettaglio dell’alimentazione può fare la differenza. L’AI Overview di Google, in un caso documentato, ha suggerito di evitare cibi ricchi di grassi.

Sembra un consiglio di buon senso, vero?

Peccato che sia l’esatto contrario di ciò che raccomandano gli specialisti. Come ha spiegato Anna Jewell, direttrice di Pancreatic Cancer U.K., seguire un’indicazione del genere impedirebbe al paziente di assumere le calorie necessarie, rendendolo troppo debole per sopportare la chemioterapia o un intervento chirurgico salvavita.

E questo è solo un esempio.

L’indagine ha scoperchiato un vaso di Pandora di errori: dai valori per le analisi del fegato forniti senza considerare età o sesso, a indicazioni errate sugli screening per il cancro vaginale, fino a consigli pericolosi su psicosi e disturbi alimentari che, secondo l’associazione Mind, potrebbero spingere le persone a non chiedere aiuto.

Il problema, purtroppo, non è un’eccezione, ma sembra essere la regola.

Un problema sistemico, non un caso isolato

Se pensi che questi siano solo incidenti di percorso, ti sbagli.

Altre ricerche confermano il quadro desolante. Uno studio della Stanford ha rivelato che il 22% delle risposte mediche generate dall’IA contiene errori gravi.

E il dato più preoccupante arriva da una ricerca del MIT: le persone non solo leggono questi consigli, ma tendono a ritenerli validi e affidabili, mostrando un’alta propensione a seguire indicazioni mediche potenzialmente dannose.

Ci troviamo quindi di fronte a uno strumento che sbaglia spesso, ma che viene percepito come autorevole, semplicemente perché si trova in cima alla pagina di Google, presentato con un linguaggio sicuro di sé.

In pratica, un mix letale di incompetenza algoritmica e fiducia mal riposta da parte nostra.

E di fronte a tutto questo, cosa risponde il gigante di Mountain View?

La difesa di Google: ci possiamo davvero fidare?

La risposta di Google, diciamocelo, non sorprende.

Un portavoce ha dichiarato che “la stragrande maggioranza” delle risposte è accurata, liquidando molti esempi come “screenshot incompleti” e sottolineando che l’azienda investe molto per migliorare la qualità, soprattutto su temi delicati come la salute. Parole che suonano come la classica dichiarazione di facciata, soprattutto se consideriamo che l’inchiesta del Guardian arriva più di 18 mesi dopo le prime critiche a questa funzionalità.

La vera domanda che resta sul tavolo è un’altra: di chi è la colpa se qualcuno segue un consiglio sbagliato e subisce un danno?

Un medico è responsabile delle sue prescrizioni.

Un editore è responsabile di ciò che pubblica.

Ma un algoritmo?

L’impressione è che, ancora una volta, le big tech lancino sul mercato tecnologie immature, scaricando i rischi sugli utenti e nascondendosi dietro a promesse di “miglioramento continuo”.

Ma quando in gioco c’è la salute delle persone, aspettare che l’algoritmo “impari” non è un’opzione accettabile.

Anita Innocenti

Sono una copywriter appassionata di search marketing. Scrivo testi pensati per farsi trovare, ma soprattutto per farsi scegliere. Le parole sono il mio strumento per trasformare ricerche in risultati.

Ricevi i migliori aggiornamenti di settore