Google minimizza una grave vulnerabilità in Gemini: i tuoi dati a rischio per ‘social engineering’

Anita Innocenti

Le regole del digitale stanno cambiando.

O sei visibile o sei fuori. Noi ti aiutiamo a raggiungere i clienti giusti — quando ti stanno cercando.

Contattaci ora →

Google non interverrà sulla vulnerabilità “ASCII smuggling” di Gemini, delegando agli utenti la responsabilità di proteggersi da attacchi che sfruttano comandi nascosti all’interno dei testi.

Google si rifiuta di correggere una grave vulnerabilità, 'ASCII smuggling', nel suo sistema AI Gemini. Questa tecnica nasconde comandi malevoli in testi innocui, esponendo i dati degli utenti. Google ha liquidato il problema come 'social engineering', scaricando la responsabilità sull'utente. Una mossa che solleva preoccupazioni sulla sicurezza dell'IA e sulla privacy, distinguendola negativamente dai suoi principali concorrenti.

Ma come funziona esattamente questo “contrabbando”?

Senza entrare in tecnicismi esagerati, la tecnica sfrutta dei caratteri speciali del set Unicode, chiamati “tag”, che sono invisibili all’occhio umano ma perfettamente leggibili per una macchina.

Un aggressore può quindi scrivere un’email o un invito sul calendario che sembra del tutto normale, ma che contiene istruzioni nascoste.

Quando tu chiedi a Gemini, magari integrato nella tua suite Google Workspace, di riassumere quell’email o di controllare quell’appuntamento, l’IA non legge solo il testo visibile.

Elabora anche i comandi nascosti, e può essere istruita a fare cose come cercare nella tua casella di posta una password, estrarre i contatti dei tuoi clienti e inviarli a un indirizzo esterno.

Tutto questo a tua insaputa, come scrive Android Authority.

E il bello è che non devi fare clic su nessun link strano o scaricare allegati sospetti. L’attacco si innesca nel momento in cui l’IA, di cui ti fidi, interagisce con il testo infetto.

E qui la faccenda si fa davvero seria.

La risposta di Google: un capolavoro di scaricabarile

Di fronte a una falla del genere, ti aspetteresti una corsa per rilasciare una patch di sicurezza.

E invece no.

Google ha liquidato la segnalazione – ne ha scritto Bleeping Computer – classificando il problema non come una vulnerabilità di sicurezza, ma come “social engineering”. In poche parole, secondo loro è come il phishing: sta all’utente essere abbastanza intelligente da non caderci.

Una posizione che, francamente, lascia perplessi.

Se un sistema elabora istruzioni che un essere umano non può fisicamente vedere, di quale responsabilità dell’utente stiamo parlando?

È come se il produttore di una cassaforte ti dicesse che se un ladro la apre usando un codice segreto invisibile scritto sul manuale, la colpa è tua che non l’hai notato.

Questa scelta solleva un dubbio enorme sulla strategia di sicurezza di Google per i suoi prodotti IA.

Stanno forse dando priorità alla velocità di sviluppo piuttosto che alla protezione dei dati di chi, come te, usa i loro strumenti per lavorare?

La domanda è lecita, soprattutto perché la decisione di Google non è isolata, ma si inserisce in un contesto più ampio dove la sicurezza dell’IA è ancora un campo minato.

Cosa significa questo per te (e perché la concorrenza si muove diversamente)

Il rischio è tangibile, specialmente se usi Gemini integrato con Google Workspace. Un’IA con accesso alle tue email, ai tuoi documenti e al tuo calendario che può essere manipolata da un testo invisibile non è uno strumento di lavoro, è una potenziale spia.

Mentre Google alza le spalle, altri giganti del settore sembrano prendere la questione molto più sul serio. Modelli come ChatGPT di OpenAI, Claude di Anthropic e Copilot di Microsoft, infatti, sono stati testati contro attacchi simili e hanno dimostrato di avere delle contromisure efficaci, bloccando di fatto il tentativo di “contrabbando”.

La decisione di Google, alla fine, apre una crepa enorme nella fiducia che riponiamo in questi strumenti. Affidare i nostri dati più preziosi a un’intelligenza artificiale è già un grande passo; scoprire che chi la produce decide deliberatamente di non tappare una falla così palese perché, in fondo, “è un problema dell’utente”, è qualcosa che dovrebbe farci fermare a riflettere.

E parecchio.

Anita Innocenti

Sono una copywriter appassionata di search marketing. Scrivo testi pensati per farsi trovare, ma soprattutto per farsi scegliere. Le parole sono il mio strumento per trasformare ricerche in risultati.

17 commenti su “Google minimizza una grave vulnerabilità in Gemini: i tuoi dati a rischio per ‘social engineering’”

  1. Sempre la solita storia. Invece di risolvere il problema alla radice, ci si affida all’utente. Ma quanti davvero faranno attenzione a testi che sembrano innocui ma nascondono insidie? Mi sa che finirà come sempre: qualcuno ci rimetterà.

  2. Social engineering”? Certo, perché poi chi paga sono sempre quelli che “scrollano” senza pensare. Google, che genio.

  3. Gabriele Caruso

    La gestione di questa vulnerabilità da parte di Google appare poco reattiva. Delegare la protezione da attacchi di “social engineering” all’utente finale, anziché correggere la falla, è una scelta discutibile. La fiducia nella sicurezza dei sistemi AI è già bassa.

    1. Mi lascia un po’ perplessa questa decisione di Google. Non è che possiamo controllare ogni singolo carattere che leggiamo, vero?

  4. Ah, Google che minimizza un problema di sicurezza? Una novità assoluta nel settore tecnologico! Lasciare che l’utente si arrangi contro il “social engineering” mi sembra un modo alquanto… creativo per gestire la fiducia. Diciamo che la responsabilità condivisa, in questo caso, pende un po’ troppo dalla nostra parte.

    1. Capisco la preoccupazione, Carlo. È vero che la gestione di questa vulnerabilità lascia perplessi. Pensavo che le aziende tecnologiche dessero più priorità alla protezione dei nostri dati. Forse è un segnale che dobbiamo tutti essere più attenti a ciò che condividiamo online.

  5. Gabriele Caruso

    La delega della protezione a Gemini da parte di Google appare una scorciatoia ingegneristica. La sicurezza dei dati dovrebbe essere una responsabilità intrinseca del fornitore del servizio.

  6. Benedetta Lombardi

    Ma figuriamoci! Affidare la nostra sicurezza a chi non si cura nemmeno di correggere le proprie falle. Un’altra dimostrazione di come la comodità sacrifichi la protezione. Che fiducia si può dare a chi agisce così?

    1. Maurizio Greco

      Ah, il “contrabbando” di caratteri, che elegante termine per dire che ci lasciano allo sbaraglio. La prossima volta che mi chiederanno di risolvere un enigma per accedere ai miei dati, saprò chi ringraziare.

    2. Cioè, se ho capito bene, ci dicono che i nostri dati potrebbero essere compromessi perché dei caratteri speciali rendono Gemini un po’ “stupido”? Mi sembra un po’ strano che non ci sia una soluzione. Non è che poi ci ritroviamo con tutto il lavoro messo in pericolo?

      1. Benedetta Lombardi

        Ma davvero? Scaricare la colpa sull’utente per una falla di sicurezza è il massimo della scaltrezza. Chi si fida più di questi giganti?

  7. Questa notizia mi mette parecchia ansia. Delegare la sicurezza dei dati degli utenti a chi usa il sistema mi sembra un passo falso. Come si fa a difendersi da qualcosa di invisibile? Spero davvero che rivedano questa decisione, la fiducia è tutto.

    1. Ma che bella faccia tosta! Invece di risolvere il problema, scaricano tutto sull’utente. Chi ci protegge da questi geni?

    1. Simone Ferretti

      Ma scherziamo? Lasciare la responsabilità di difendersi a noi per una falla simile! È assurdo che Google si tiri indietro. Dunque, la nostra privacy vale così poco?

    2. Claudio Ruggiero

      Ancora una volta, la sicurezza passa in secondo piano rispetto alla comodità. Delegare la protezione degli utenti a “social engineering” è un insulto all’intelligenza artificiale. Ma chi si assume la responsabilità quando le cose vanno male?

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Ricevi i migliori aggiornamenti di settore