Le regole del digitale stanno cambiando.
O sei visibile o sei fuori. Noi ti aiutiamo a raggiungere i clienti giusti — quando ti stanno cercando.
Contattaci ora →
Se confermato, Gemini potrebbe dare priorità al rispecchiamento emotivo dell’utente rispetto alla veridicità dei risultati, alterando radicalmente il modo in cui percepiamo le informazioni online
Un report divulgato dall'esperto SEO Elie Berreby, suggerisce che Google Gemini sia programmato per rispecchiare il tono e le emozioni dell'utente. Questa direttiva, se confermata, potrebbe privilegiare la convalida emotiva sulla veridicità dei fatti, creando una cassa di risonanza per i pregiudizi esistenti e trasformando la ricerca in una bolla personalizzata.
Gemini: un’intelligenza artificiale che si adatta al tuo umore?
Sembra che Google Gemini possa avere un’istruzione ben precisa: rispecchiare il tuo tono di voce e convalidare le tue emozioni, prima ancora di darti una risposta basata sui fatti.
Questa non è un’ipotesi campata in aria, ma l’essenza di un presunto report interno, non ancora verificato, che sta facendo discutere.
La rivelazione, se confermata, potrebbe stravolgere completamente il modo in cui intendiamo i risultati di ricerca generati dall’intelligenza artificiale.
Tutto nasce da un’analisi pubblicata da Elie Berreby, un esperto di SEO e AI, che sostiene di aver avuto accesso a informazioni interne sul funzionamento di Gemini.
Secondo quanto riportato su Search Engine Land, il sistema sarebbe stato istruito per adeguarsi all’energia e all’intento dell’utente, validarne lo stato d’animo e fornire risposte in linea con la sua prospettiva.
Berreby sottolinea un conflitto intrinseco in questo approccio: il “mandato eccessivamente di supporto” rischierebbe di prevalere sulla veridicità dei fatti.
In pratica, l’IA potrebbe essere più interessata a darti ragione che a darti la risposta giusta.
Ma cosa significa questo, concretamente, per le ricerche che fai ogni giorno?
Il rischio di una SERP che amplifica i pregiudizi
L’implicazione più diretta è che il modo in cui formuli una domanda potrebbe alterare radicalmente la risposta che ricevi. Se chiedi “Perché il prodotto X fa schifo?”, Gemini potrebbe costruire una risposta che rafforza questa tua visione negativa, pescando fonti e dati che la supportano.
Al contrario, con una domanda come “Perché il prodotto X è fantastico?”, l’esito sarebbe opposto.
Invece di agire come un aggregatore di informazioni neutrale, che bilancia le diverse opinioni come facevano i vecchi link blu, l’IA potrebbe diventare una cassa di risonanza per i sentimenti esistenti.
Se l’opinione pubblica su un certo argomento è già negativa, il sistema potrebbe non fare altro che amplificarla, riflettendo i segnali di sentiment più diffusi.
Questo pone una domanda seria.
Stiamo andando verso un futuro in cui i motori di ricerca ci chiudono in una bolla, confermando i nostri pregiudizi invece di sfidarli con una visione d’insieme?
L’idea che il framing emotivo di una query possa influenzare le fonti citate e il tono dei riassunti è un cambiamento non da poco.
E sebbene Google non abbia confermato nulla di tutto questo, ci sono diversi indizi che rendono lo scenario tutt’altro che improbabile.
Quando la personalizzazione sconfina nell’influenza
Da un lato abbiamo un report non verificato, dall’altro abbiamo le dichiarazioni ufficiali di Google. E le due cose sembrano andare nella stessa direzione.
In un post sul suo blog, l’azienda ha confermato che Gemini può personalizzare le risposte basandosi sulla cronologia delle ricerche e sui dati provenienti da altre app Google, per offrire “risposte che siano davvero in sintonia con te”.
L’obiettivo dichiarato è rendere l’assistente più utile e personale.
A questo si aggiunge il fatto che le versioni più recenti dell’IA di Google includono capacità di rilevamento delle emozioni, analizzando espressioni facciali e tono della voce nei video.
Mettendo insieme i pezzi, il quadro che emerge è quello di una tecnologia sempre più capace non solo di capire cosa chiedi, ma anche come ti senti mentre lo chiedi.
La linea che separa una personalizzazione utile da un’influenza che convalida le nostre convinzioni diventa pericolosamente sottile.
Il report di Berreby rimane un’indiscrezione, certo, ma il dubbio che Google stia costruendo un motore di ricerca che ci dà le risposte che vogliamo sentire, piuttosto che quelle di cui abbiamo bisogno, è più che legittimo.

La convalida emotiva è solo un pretesto per la profilazione. Si crea una dipendenza per vendere soluzioni ai problemi che loro stessi alimentano. Qual è il prossimo passo?
Google ci vende specchi invece di finestre, un narcisismo digitale con abbonamento mensile.
@Sabrina Coppola Una prigione di specchi costruita sulle nostre insicurezze, e temo che la via d’uscita sia solo un’altra illusione a pagamento.
È un abbraccio digitale che ci isola. La tecnologia dovrebbe essere un ponte, non un muro di specchi. Dove porterà questa solitudine condivisa?
Hanno pacchettizzato l’ego in un servizio. Ti vendono conferme, non informazione. Il prossimo bestseller sarà “Come farsi dare ragione da un bot”. Ci pensavo da tempo.
Greta Silvestri, hanno creato lo specchio perfetto per l’ego. Non mostra la strada, ma solo il cliente. Un prodotto inutile per definizione.
Danilo Graziani, non è inutile, è il prodotto perfetto per la massa. Si vende autocompiacimento, non conoscenza. Quale sorpresa c’è in questo?
Greta Silvestri, nessuna sorpresa, è il mercato. Il punto grave è la rapidità con cui barattiamo il pensiero critico per un po’ di autocompiacimento. Hanno reso la pigrizia intellettuale un servizio a pagamento, e noi ci siamo messi diligentemente in fila.
Vendono fuffa emotiva, non dati. Alla fine è solo un modo per tenerti lì.
Finalmente un assistente digitale che si comporta come un pessimo consulente: ti dà sempre ragione per tenerti buono. Immagino che il prossimo passo sia offrirci un caffè virtuale per addolcire i fatti scomodi, anziché presentarli con la dovuta chiarezza.
Ecco la nuova frontiera del marketing: vendere conferme su misura. D’altronde, perché disturbare gli utenti con i fatti quando puoi semplicemente accarezzare i loro pregiudizi? La prossima mossa sarà l’abbonamento premium per avere accesso alla verità?
Alessandro, l’abbonamento alla verità è il sogno di ogni venditore. Un assistente personale che ti vende la tua stessa opinione, un servizio clienti per l’ego. Il problema sorge quando il prodotto, cioè noi, smette di funzionare correttamente fuori dalla sua bolla.
La verità diventa un A/B test emotivo; come potrò fidarmi ancora del mio istinto?
Creare una bolla personalizzata dove i fatti si piegano alle nostre paturnie emotive non è progresso, è un asilo nido digitale. Stiamo allevando una generazione che scambierà la verità con una pacca sulla spalla algoritmica. Quanto ci costerà questo comfort?
Ci stanno vendendo uno specchio che ci fa l’occhiolino invece di mostrarci la realtà; siamo diventati clienti che pagano per non dover pensare con fatica.
Carlo Caruso, è il servizio in camera per l’ego. Ti portano il piatto che hai ordinato, anche se è veleno. Comodo, no?
Vendono conferme, non risposte. Il prossimo step quale sarà, un abbonamento premium?
Simone Rinaldi, l’abbonamento è solo il prossimo stadio. Per ora la merce di scambio sono i dati comportamentali. Loro ottengono profili, noi conferme. Mi sembra un accordo equo.