Google AI Overview: il bug dell’anno è stato corretto, ma la fiducia è sempre più a rischio

Anita Innocenti

Le regole del digitale stanno cambiando.

O sei visibile o sei fuori. Noi ti aiutiamo a raggiungere i clienti giusti — quando ti stanno cercando.

Contattaci ora →

Corretto il bug di AIO che faceva sbagliare l’anno, ma restano i dubbi sulla sua affidabilità e sui consigli bizzarri che dispensa

Google annuncia di aver corretto il bug di AI Overview che forniva l'anno sbagliato, riportato da Android Authority. Nonostante questo fix, la fiducia degli utenti rimane compromessa a causa di precedenti e più gravi errori, come suggerimenti pericolosi (colla sulla pizza, mangiare rocce). L'articolo solleva dubbi sulla maturità del prodotto e invita alla verifica critica delle risposte AI.

Google ci riprova con AI Overview: bug corretto, fiducia sotto i tacchi. Ma davvero ci caschiamo ancora?

Te lo dico subito, senza troppi giri di parole: Google ha annunciato di aver messo una “pezza” a uno degli svarioni più imbarazzanti della sua intelligenza artificiale, AI Overview. Ricordi la storia di quando non sapeva nemmeno in che anno fossimo, rispondendo in modo errato a domande tipo “Siamo nel 2025?” Beh, pare che ora, come riportato da Android Authority, il sistema risponda correttamente.

Applausi?

Non così in fretta.

Perché se da un lato il colosso di Mountain View si affretta a comunicare queste “vittorie”, dall’altro la sensazione è che la fiducia degli utenti sia ormai ai minimi storici. E, diciamocelo, con buona ragione. Ma andiamo con ordine, perché la faccenda è più ingarbugliata di un piatto di spaghetti scotti.

La “pezza” sul bug dell’anno: una goccia nel mare degli svarioni

Quindi, il bug dell’anno è stato sistemato.

Evviva.

Prima, se chiedevi ingenuamente “È il 2025?”, l’AI Overview poteva darti una risposta che ti faceva dubitare del calendario appeso al muro. Ora, pare che abbiano insegnato alla macchina a contare gli anni correttamente, o forse, più furbescamente, a non rispondere a domande “senza senso”, come le definiscono loro.

Ma è questa la vera soluzione?

Sistemare un singolo, seppur eclatante, errore basta a farci dormire sonni tranquilli sulla qualità delle informazioni che Google ci propina con questa sua intelligenza artificiale?

Ho i miei serissimi dubbi.

Perché, vedi, questo bug era solo la punta dell’iceberg, il classico dito che nascondeva una luna di problemi ben più grossi.

E mentre ci raccontano di questi mirabolanti “fix”, ti sei mai chiesto cosa bolle davvero sotto il cofano di queste tecnologie che dovrebbero aiutarci?

La verità è che, al di là delle patch momentanee, il problema di fondo dell’affidabilità di AI Overview rimane, eccome.

E non lo dico io, lo dicono i fatti, quelli che Google preferirebbe tu non notassi.

Errori da comiche (se non fosse che c’è di mezzo la tua ricerca)

Parliamoci chiaro: prima del “caso dell’anno”, AI Overview ne aveva già combinate di cotte e di crude.

Ti ricordi quando suggeriva di aggiungere colla alla pizza per far tenere meglio il formaggio, un “consiglio” preso paro paro da un commento sarcastico su Reddit, come descritto da TechNews180?

O quando, con una serietà da far rabbrividire, consigliava di mangiare almeno una piccola roccia al giorno?

Sembra una barzelletta, ma è la triste realtà di un sistema lanciato con troppa fretta e, forse, con troppa arroganza.

Liz Reid, la responsabile della Ricerca di Google, in un post sul blog ufficiale dell’azienda, ha ammesso qualche “sbavatura”, parlando di “meccanismi di rilevamento migliori” e di una limitazione all’uso di contenuti generati dagli utenti.

Belle parole, per carità.

Ma bastano a cancellare la sensazione che si stia navigando a vista, sperando che gli utenti facciano da beta tester gratuiti per un prodotto tutt’altro che maturo?

La domanda sorge spontanea:

stanno davvero lavorando per offrirti un servizio migliore, o solo per non perdere il treno dell’AI, a qualunque costo?

E mentre Google “migliora”, ti sei chiesto qual è il prezzo che stiamo pagando in termini di disinformazione e di fiducia persa?

Perché, vedi, la faccenda si fa ancora più seria quando si guarda al quadro generale.

Fiducia sotto zero e tante domande (scomode) senza risposta

La reazione del pubblico, come potevi immaginare, non si è fatta attendere. L’hashtag #GoogEnough, menzionato da Search Engine Land, è diventato il simbolo di una crescente frustrazione verso risposte AI spesso inutili, quando non palesemente false o pericolose. Esperti del settore, come quelli citati da TechRadar, hanno espresso fortissime perplessità, sottolineando come l’eccessiva sicurezza con cui AI Overview presenta informazioni errate sia un problema enorme.

E come dargli torto?

Paradossalmente, uno studio di Semrush indica che la percentuale di ricerche che attivano queste AI Overview è in aumento, toccando quote significative anche in settori delicatissimi come salute e finanza. Quindi, più utenti sono esposti a potenziali castronerie, mentre la fiducia, quella vera, cola a picco.

E ciliegina sulla torta?

Da Android Police emerge una certa “pigrizia” di Google nel pubblicare report dettagliati sulla sicurezza della sua IA.

Coincidenze?

Io non credo.

La verità è che siamo di fronte a un bivio. Da una parte le promesse luccicanti delle Big Tech, dall’altra la necessità, sempre più impellente, di un approccio critico e consapevole. Perché una cosa è certa: fidarsi è bene, ma con questi chiari di luna, non fidarsi (o almeno, verificare sempre) è decisamente meglio.

E tu, continuerai a prendere per oro colato quello che ti “vomita” l’algoritmo?

Anita Innocenti

Sono una copywriter appassionata di search marketing. Scrivo testi pensati per farsi trovare, ma soprattutto per farsi scegliere. Le parole sono il mio strumento per trasformare ricerche in risultati.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Ricevi i migliori aggiornamenti di settore