Le regole del digitale stanno cambiando.
O sei visibile o sei fuori. Noi ti aiutiamo a raggiungere i clienti giusti — quando ti stanno cercando.
Contattaci ora →
L’algoritmo forniva dati sanitari errati e potenzialmente dannosi, mettendo a rischio la salute degli utenti e sollevando interrogativi sull’affidabilità dell’IA in ambito medico
Un'inchiesta del The Guardian ha svelato la pericolosità dei consigli medici dell'IA di Google, basati su dati decontestualizzati e potenzialmente letali. La risposta di Mountain View, una toppa frettolosa, non risolve il problema sistemico dell'affidabilità degli algoritmi in un campo così delicato come la salute, dove le "allucinazioni" dell'IA possono avere conseguenze gravissime per gli utenti.
L’IA di Google gioca a fare il medico: risultati pericolosi e una toppa messa in fretta e furia
Google ha dovuto fare una rapida marcia indietro, rimuovendo i suoi riassunti generati dall’intelligenza artificiale (le AI Overviews) da alcune ricerche legate alla salute.
Il motivo?
Un’inchiesta del The Guardian ha scoperchiato una serie di falle talmente gravi da mettere a rischio la salute degli utenti, dimostrando ancora una volta che affidarsi ciecamente a un algoritmo per questioni mediche è un’idea a dir poco azzardata.
Questa mossa, per quanto necessaria, è un’ammissione implicita dei pericoli legati a un’informazione sanitaria generata automaticamente, senza un reale controllo umano.
Ma cosa è successo di così grave da costringere il colosso di Mountain View a correre ai ripari?
Quando l’IA fornisce numeri senza contesto: il caso dei test epatici
Il cuore del problema è emerso con domande apparentemente innocue, come la richiesta dei valori normali per gli esami del sangue del fegato. L’IA di Google rispondeva fornendo una sfilza di dati numerici su enzimi e proteine, ma omettendo un dettaglio fondamentale: un dato numerico, di per sé, non significa assolutamente nulla se non viene calato in un contesto preciso.
I valori di riferimento, infatti, cambiano radicalmente in base a fattori come età, sesso, etnia e nazionalità. Senza queste informazioni, una persona potrebbe leggere i risultati, convincersi che sia tutto a posto e ignorare un segnale d’allarme importante per la sua salute.
A rendere il tutto ancora più problematico è la fonte da cui Google ha estratto questi dati: la Max Healthcare, una catena di ospedali privati con sede a Nuova Delhi.
Dati specifici per la popolazione indiana, quindi, spacciati come universali a un pubblico globale.
E non si è trattato di un caso isolato. L’inchiesta ha rivelato che l’IA consigliava a persone con cancro al pancreas di evitare cibi ricchi di grassi, un suggerimento che, secondo gli esperti, potrebbe addirittura aumentare il rischio di mortalità per questi pazienti.
Una situazione che ha messo Google con le spalle al muro.
E la sua reazione, diciamocelo, lascia più di un dubbio.
La pezza è peggio del buco? la risposta (limitata) di Google
Di fronte a prove così schiaccianti, Google ha agito.
O meglio, ha messo una pezza.
Come descritto da TechCrunch, hanno rimosso i riassunti AI per le ricerche esatte segnalate dal Guardian, ma inizialmente non per le loro varianti.
Un portavoce, senza entrare nel merito delle singole rimozioni, ha tentato di minimizzare, affermando che un team interno di medici aveva esaminato le query e stabilito che “in molti casi, le informazioni non erano inaccurate e supportate da siti web di alta qualità”.
Una dichiarazione che stona parecchio con la realtà dei fatti e solleva interrogativi sulla serietà dei loro processi di revisione.
È davvero sufficiente che l’informazione sia “non inaccurata” quando si parla di salute?
O dovremmo pretendere che sia precisa, contestualizzata e, soprattutto, sicura?
Ma mentre Google si affretta a spegnere i piccoli incendi, la foresta continua a bruciare.
Il problema non è la singola ricerca, ma l’affidabilità dell’IA
Il punto non è correggere la singola ricerca. Quello è solo un modo per tappare il buco più evidente.
Il problema è sistemico e riguarda l’affidabilità stessa dell’intelligenza artificiale in un campo così delicato. Questi sistemi sono noti per le loro “allucinazioni”, ovvero la tendenza a inventare risposte quando non conoscono quella corretta.
Un difetto tollerabile se si chiede la ricetta di una torta, ma potenzialmente letale se si cercano informazioni mediche.
A differenza dei risultati di ricerca tradizionali, che l’utente può valutare e confrontare tra diverse fonti, i riassunti dell’IA si presentano con un’aria di autorevolezza che può facilmente ingannare.
E mentre si discute di questi problemi, Google continua a integrare le AI Overviews in altri prodotti, persino in Gmail.
La vera domanda, quindi, non è se Google riuscirà a correggere questi errori, ma se sia giusto affidare risposte così delicate a un sistema che, per sua natura, può inventare la verità.
