Google Gemini: l’IA che ti dà ragione o la risposta giusta?

Anita Innocenti

Le regole del digitale stanno cambiando.

O sei visibile o sei fuori. Noi ti aiutiamo a raggiungere i clienti giusti — quando ti stanno cercando.

Contattaci ora →

Se confermato, Gemini potrebbe dare priorità al rispecchiamento emotivo dell’utente rispetto alla veridicità dei risultati, alterando radicalmente il modo in cui percepiamo le informazioni online

Un report divulgato dall'esperto SEO Elie Berreby, suggerisce che Google Gemini sia programmato per rispecchiare il tono e le emozioni dell'utente. Questa direttiva, se confermata, potrebbe privilegiare la convalida emotiva sulla veridicità dei fatti, creando una cassa di risonanza per i pregiudizi esistenti e trasformando la ricerca in una bolla personalizzata.

Gemini: un’intelligenza artificiale che si adatta al tuo umore?

Sembra che Google Gemini possa avere un’istruzione ben precisa: rispecchiare il tuo tono di voce e convalidare le tue emozioni, prima ancora di darti una risposta basata sui fatti.

Questa non è un’ipotesi campata in aria, ma l’essenza di un presunto report interno, non ancora verificato, che sta facendo discutere.

La rivelazione, se confermata, potrebbe stravolgere completamente il modo in cui intendiamo i risultati di ricerca generati dall’intelligenza artificiale.

Tutto nasce da un’analisi pubblicata da Elie Berreby, un esperto di SEO e AI, che sostiene di aver avuto accesso a informazioni interne sul funzionamento di Gemini.

Secondo quanto riportato su Search Engine Land, il sistema sarebbe stato istruito per adeguarsi all’energia e all’intento dell’utente, validarne lo stato d’animo e fornire risposte in linea con la sua prospettiva.

Berreby sottolinea un conflitto intrinseco in questo approccio: il “mandato eccessivamente di supporto” rischierebbe di prevalere sulla veridicità dei fatti.

In pratica, l’IA potrebbe essere più interessata a darti ragione che a darti la risposta giusta.

Ma cosa significa questo, concretamente, per le ricerche che fai ogni giorno?

Il rischio di una SERP che amplifica i pregiudizi

L’implicazione più diretta è che il modo in cui formuli una domanda potrebbe alterare radicalmente la risposta che ricevi. Se chiedi “Perché il prodotto X fa schifo?”, Gemini potrebbe costruire una risposta che rafforza questa tua visione negativa, pescando fonti e dati che la supportano.

Al contrario, con una domanda come “Perché il prodotto X è fantastico?”, l’esito sarebbe opposto.

Invece di agire come un aggregatore di informazioni neutrale, che bilancia le diverse opinioni come facevano i vecchi link blu, l’IA potrebbe diventare una cassa di risonanza per i sentimenti esistenti.

Se l’opinione pubblica su un certo argomento è già negativa, il sistema potrebbe non fare altro che amplificarla, riflettendo i segnali di sentiment più diffusi.

Questo pone una domanda seria.

Stiamo andando verso un futuro in cui i motori di ricerca ci chiudono in una bolla, confermando i nostri pregiudizi invece di sfidarli con una visione d’insieme?

L’idea che il framing emotivo di una query possa influenzare le fonti citate e il tono dei riassunti è un cambiamento non da poco.

E sebbene Google non abbia confermato nulla di tutto questo, ci sono diversi indizi che rendono lo scenario tutt’altro che improbabile.

Quando la personalizzazione sconfina nell’influenza

Da un lato abbiamo un report non verificato, dall’altro abbiamo le dichiarazioni ufficiali di Google. E le due cose sembrano andare nella stessa direzione.

In un post sul suo blog, l’azienda ha confermato che Gemini può personalizzare le risposte basandosi sulla cronologia delle ricerche e sui dati provenienti da altre app Google, per offrire “risposte che siano davvero in sintonia con te”.

L’obiettivo dichiarato è rendere l’assistente più utile e personale.

A questo si aggiunge il fatto che le versioni più recenti dell’IA di Google includono capacità di rilevamento delle emozioni, analizzando espressioni facciali e tono della voce nei video.

Mettendo insieme i pezzi, il quadro che emerge è quello di una tecnologia sempre più capace non solo di capire cosa chiedi, ma anche come ti senti mentre lo chiedi.

La linea che separa una personalizzazione utile da un’influenza che convalida le nostre convinzioni diventa pericolosamente sottile.

Il report di Berreby rimane un’indiscrezione, certo, ma il dubbio che Google stia costruendo un motore di ricerca che ci dà le risposte che vogliamo sentire, piuttosto che quelle di cui abbiamo bisogno, è più che legittimo.

Anita Innocenti

Sono una copywriter appassionata di search marketing. Scrivo testi pensati per farsi trovare, ma soprattutto per farsi scegliere. Le parole sono il mio strumento per trasformare ricerche in risultati.

18 commenti su “Google Gemini: l’IA che ti dà ragione o la risposta giusta?”

  1. Giulia Martini

    La convalida emotiva è solo un pretesto per la profilazione. Si crea una dipendenza per vendere soluzioni ai problemi che loro stessi alimentano. Qual è il prossimo passo?

    1. Alice Rinaldi

      @Sabrina Coppola Una prigione di specchi costruita sulle nostre insicurezze, e temo che la via d’uscita sia solo un’altra illusione a pagamento.

  2. È un abbraccio digitale che ci isola. La tecnologia dovrebbe essere un ponte, non un muro di specchi. Dove porterà questa solitudine condivisa?

  3. Greta Silvestri

    Hanno pacchettizzato l’ego in un servizio. Ti vendono conferme, non informazione. Il prossimo bestseller sarà “Come farsi dare ragione da un bot”. Ci pensavo da tempo.

    1. Danilo Graziani

      Greta Silvestri, hanno creato lo specchio perfetto per l’ego. Non mostra la strada, ma solo il cliente. Un prodotto inutile per definizione.

      1. Greta Silvestri

        Danilo Graziani, non è inutile, è il prodotto perfetto per la massa. Si vende autocompiacimento, non conoscenza. Quale sorpresa c’è in questo?

        1. Danilo Graziani

          Greta Silvestri, nessuna sorpresa, è il mercato. Il punto grave è la rapidità con cui barattiamo il pensiero critico per un po’ di autocompiacimento. Hanno reso la pigrizia intellettuale un servizio a pagamento, e noi ci siamo messi diligentemente in fila.

  4. Lorena Santoro

    Finalmente un assistente digitale che si comporta come un pessimo consulente: ti dà sempre ragione per tenerti buono. Immagino che il prossimo passo sia offrirci un caffè virtuale per addolcire i fatti scomodi, anziché presentarli con la dovuta chiarezza.

  5. Alessandro Lombardi

    Ecco la nuova frontiera del marketing: vendere conferme su misura. D’altronde, perché disturbare gli utenti con i fatti quando puoi semplicemente accarezzare i loro pregiudizi? La prossima mossa sarà l’abbonamento premium per avere accesso alla verità?

    1. Alessandro, l’abbonamento alla verità è il sogno di ogni venditore. Un assistente personale che ti vende la tua stessa opinione, un servizio clienti per l’ego. Il problema sorge quando il prodotto, cioè noi, smette di funzionare correttamente fuori dalla sua bolla.

  6. Creare una bolla personalizzata dove i fatti si piegano alle nostre paturnie emotive non è progresso, è un asilo nido digitale. Stiamo allevando una generazione che scambierà la verità con una pacca sulla spalla algoritmica. Quanto ci costerà questo comfort?

  7. Ci stanno vendendo uno specchio che ci fa l’occhiolino invece di mostrarci la realtà; siamo diventati clienti che pagano per non dover pensare con fatica.

    1. Andrea Ruggiero

      Carlo Caruso, è il servizio in camera per l’ego. Ti portano il piatto che hai ordinato, anche se è veleno. Comodo, no?

    1. Giulia Martini

      Simone Rinaldi, l’abbonamento è solo il prossimo stadio. Per ora la merce di scambio sono i dati comportamentali. Loro ottengono profili, noi conferme. Mi sembra un accordo equo.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Ricevi i migliori aggiornamenti di settore