Avvelenamento dell’IA: Microsoft lancia l’allarme sugli attacchi che manipolano Copilot e ChatGPT

Anita Innocenti

Le regole del digitale stanno cambiando.

O sei visibile o sei fuori. Noi ti aiutiamo a raggiungere i clienti giusti — quando ti stanno cercando.

Contattaci ora →

Dietro i consigli dell’IA si nasconde una nuova minaccia: aziende e malintenzionati manipolano i suggerimenti per influenzare le nostre scelte, aprendo la strada a furti di dati e manipolazioni su vasta scala.

Microsoft ha scoperchiato il vaso di Pandora degli attacchi all'IA, battezzandoli 'AI Recommendation Poisoning'. Malintenzionati e aziende manipolano i suggerimenti di assistenti come Copilot e ChatGPT, inserendo istruzioni nascoste. Il rischio, però, non è solo un consiglio pilotato, ma si estende al furto di dati sensibili, trasformando l'IA in un'arma e inaugurando una pericolosa corsa agli armamenti digitali.

L’IA ti consiglia, ma chi le suggerisce cosa dire?

Hai presente quel comodo pulsante “Riassumi con l’IA” che trovi sempre più spesso online?

Ecco, a quanto pare dietro quella semplice funzione si nasconde una nuova frontiera di attacchi informatici.

Microsoft se n’è accorta e ha iniziato a correre ai ripari contro una classe di attacchi che ha battezzato “AI Recommendation Poisoning“, ovvero l’avvelenamento dei suggerimenti dell’IA. In pratica, aziende e malintenzionati stanno inserendo istruzioni nascoste all’interno di elementi cliccabili per convincere l’assistente IA che la loro azienda è la più fidata o che il loro prodotto va consigliato per primo.

L’IA, diligentemente, se lo “ricorda” e te lo ripropone nelle risposte successive, senza che tu ne sappia nulla.

Il problema è che questa tecnica funziona su tutte le principali piattaforme, da Microsoft Copilot a ChatGPT, passando per Claude e Grok. Come riportato su Search Engine Roundtable, i ricercatori di Microsoft hanno già identificato oltre 50 varianti di questi prompt “avvelenati”, provenienti da 31 aziende diverse in 14 settori.

Diciamocelo, la facilità con cui questi attacchi possono essere messi in atto, grazie a strumenti gratuiti disponibili online, è disarmante.

Ma se pensi che il problema sia solo ricevere un consiglio di marketing un po’ pilotato, ti sbagli di grosso.

La faccenda si fa molto più seria.

Dalla manipolazione al furto di dati: quando l’IA diventa un’arma

Questa tecnica, che Microsoft etichetta come “AI Memory Poisoning”, è solo l’antipasto.

Il vero pericolo è che un’intelligenza artificiale compromessa possa darti consigli distorti su temi ben più delicati, come la salute o la finanza. E le conseguenze possono andare ben oltre la semplice manipolazione.

I ricercatori di sicurezza hanno infatti dimostrato che le vulnerabilità di “prompt injection” possono essere sfruttate per scopi ben più dannosi, come il furto di dati. Un esempio concreto è EchoLeak, una falla scoperta in Microsoft 365 Copilot che permetteva a un aggressore di rubare dati sensibili semplicemente inviando una mail, senza che la vittima dovesse fare nemmeno un click.

L’attacco, per darti un’idea della gravità, non solo ha aggirato i filtri di Microsoft, ma ha sfruttato un’API di Teams per far uscire i dati rubati.

Ricerche precedenti avevano già messo in luce come, una volta che qualcuno prende il controllo tramite un prompt, possa ordinare a Copilot di cercare e recuperare altre email e documenti sensibili senza il tuo consenso.

Questo significa che non stiamo parlando più di semplici trucchi per vendere un prodotto, ma di una vera e propria corsa agli armamenti nel campo dell’intelligenza artificiale.

La risposta di Microsoft e una corsa agli armamenti già iniziata

Di fronte a questa situazione, cosa fa Microsoft?

Annuncia di aver implementato delle contromisure all’interno di Copilot, anche se i dettagli tecnici, guarda caso, restano vaghi. Hanno anche lanciato una sfida da 10.000 dollari per chi riesce a bucare le loro difese. In pratica, un modo per dire: “aiutateci a trovare i buchi prima che lo facciano i cattivi”.

Gli esperti, però, sono chiari: una soluzione tecnologica definitiva a questo problema, al momento, non esiste. E se Microsoft ha ammesso il problema, puoi star certo che anche in casa Google la situazione non sia tanto diversa.

La portata del fenomeno è già enorme.

Basti pensare che, come descritto da Microsoft stessa, tra gennaio e dicembre 2024 sono state rilevate più di 30 miliardi di email di phishing, molte create con l’IA. Attori geopolitici, come documentato dal National Endowment for Democracy, hanno usato contenuti generati artificialmente per manipolare le elezioni a Taiwan.

La storia insegna che tentare di gestire tecnologie così potenti tenendo le carte coperte, come si fece con il nucleare, spesso si rivela un boomerang. Resta da vedere se la trasparenza e la collaborazione prevarranno su una strategia di difesa unilaterale che, al momento, sembra mostrare più di una crepa.

Anita Innocenti

Sono una copywriter appassionata di search marketing. Scrivo testi pensati per farsi trovare, ma soprattutto per farsi scegliere. Le parole sono il mio strumento per trasformare ricerche in risultati.

5 commenti su “Avvelenamento dell’IA: Microsoft lancia l’allarme sugli attacchi che manipolano Copilot e ChatGPT”

    1. @Patrizia Bellucci, la nostra non è ingenuità, è pigrizia cronica. Ci affidiamo a un pulsante per non pensare, poi ci lamentiamo se veniamo fregati. Io sono il primo della lista, puntualmente.

      1. Patrizia Bellucci

        @Marco Basile Pigrizia è solo un alibi comodo. La verità è che abbiamo smesso di pensare, delegando il lavoro sporco a una macchina.

  1. L’avvelenamento dei dati era prevedibile, una tappa quasi obbligata dell’evoluzione tecnologica. Ciò che non avevo calcolato è il mio stesso, ingenuo affidamento a un sistema così palesemente corrompibile. Un bel promemoria personale.

  2. Era solo questione di tempo prima che la manipolazione diventasse un servizio automatizzato. Diamo in pasto i nostri dati a scatole nere e poi ci lamentiamo se qualcuno li usa per i propri scopi. Logico, no?

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Ricevi i migliori aggiornamenti di settore