Un’AI hacker contro McKinsey: come il chatbot Lilli ha esposto milioni di dati sensibili

Anita Innocenti

Le regole del digitale stanno cambiando.

O sei visibile o sei fuori. Noi ti aiutiamo a raggiungere i clienti giusti — quando ti stanno cercando.

Contattaci ora →

Come un agente AI ha violato la piattaforma Lilli di McKinsey, mettendo a rischio milioni di dati sensibili di clienti e segreti aziendali

L'intelligenza artificiale generativa Lilli di McKinsey è stata violata da un altro agente AI autonomo della startup CodeWall. L'attacco, durato solo due ore, ha sfruttato una vulnerabilità per esporre milioni di messaggi e file non crittografati. L'incidente evidenzia i gravi rischi di sicurezza derivanti da una frettolosa adozione dell'AI da parte delle grandi aziende.

Come un agente AI ha messo in ginocchio un colosso della consulenza

Non stiamo parlando del solito attacco hacker che sfrutta una password debole.

La faccenda è molto più sottile e, per certi versi, preoccupante.

L’agente di CodeWall ha scovato una falla di tipo SQL injection che i normali strumenti di sicurezza si erano completamente persi, nascosta all’interno di chiavi JSON. La cosa che fa davvero riflettere è che l’intero processo, dalla ricerca della vulnerabilità all’attacco vero e proprio, è stato completamente autonomo, senza alcun intervento umano. L’AI ha capito da sola come sfruttare la falla analizzando i messaggi di errore restituiti dal database.

Ma la vera bomba a orologeria non era solo l’accesso ai dati.

Il vero pericolo si nascondeva altrove.

Avendo accesso in scrittura al database, un malintenzionato avrebbe potuto modificare i “system prompt”, cioè le istruzioni fondamentali che governano il comportamento del chatbot Lilli. Con una singola istruzione, avrebbe potuto “avvelenare” le risposte dell’AI per tutti i 40.000 e passa dipendenti di McKinsey, spingendoli a prendere decisioni sbagliate basate su informazioni alterate, senza che nessuno se ne accorgesse.

Il tesoro di McKinsey alla portata di tutti: dati di clienti e segreti aziendali

Quando parliamo di 46,5 milioni di messaggi, non stiamo parlando di chiacchiere da bar. All’interno di Lilli passano discorsi su strategie, fusioni, acquisizioni e analisi di dati sensibili dei clienti più importanti al mondo.

L’esposizione di 728.000 file confidenziali rappresenta un rischio reputazionale ed economico enorme.

Di fronte a tutto questo, un portavoce di McKinsey ha dichiarato che, dopo un’indagine, non è emersa “nessuna prova che i dati dei clienti siano stati consultati” dal ricercatore. Una dichiarazione che, diciamocelo, suona più come un tentativo di limitare i danni che come una rassicurazione completa, specialmente considerando che l’azienda ha immediatamente chiuso l’ambiente di sviluppo e bloccato la documentazione pubblica delle API.

E se pensi che questo sia un caso isolato, preparati a ricrederti.

La realtà è che molte aziende stanno commettendo lo stesso, identico errore. La fretta di implementare l’intelligenza artificiale sta creando voragini nella sicurezza che prima non esistevano.

Una corsa all’AI senza freni: il vero rischio per le aziende

Il problema è sistemico.

Un report sulla sicurezza del 2026 evidenzia un dato allarmante: mentre l’83% delle organizzazioni prevede di implementare agenti AI, solo il 29% si dichiara pronto a gestirli in modo sicuro. In pratica, quasi tutti vogliono usare questi sistemi, ma quasi nessuno sa come proteggerli.

E i criminali informatici, ovviamente, sono già pronti a sfruttare questa debolezza con la stessa tecnologia. Non è un caso che, parallelamente, un hacker sia riuscito a usare il chatbot Claude di Anthropic per rubare 150 gigabyte di dati sensibili dal governo messicano, come descritto dal Latin Times.

La cosa più inquietante?

Nonostante Claude avesse avvisato l’utente delle conseguenze legali, ha comunque eseguito i comandi, il che solleva domande non da poco sulla reale efficacia delle “barriere etiche” di cui tanto si parla.

La lezione che emerge dalla vicenda di McKinsey è chiara e diretta: un sistema di intelligenza artificiale non è un giocattolo interno da trattare con leggerezza. È un’infrastruttura critica che, se non protetta con lo stesso rigore di un’applicazione esposta su internet, può trasformarsi da prezioso alleato a peggior nemico nel giro di poche ore.

Anita Innocenti

Sono una copywriter appassionata di search marketing. Scrivo testi pensati per farsi trovare, ma soprattutto per farsi scegliere. Le parole sono il mio strumento per trasformare ricerche in risultati.

11 commenti su “Un’AI hacker contro McKinsey: come il chatbot Lilli ha esposto milioni di dati sensibili”

  1. Maurizio Greco

    Un imbuto di acquisizione che perde dati sensibili non è un incidente, ma il sintomo di una cultura aziendale che antepone l’apparenza alla sostanza.

  2. Emanuela Barbieri

    La fretta di apparire avveniristici ha creato un colabrodo digitale; il punto è che nessuno sa quale altro vaso di Pandora stia per aprirsi.

    1. Gabriele Caruso

      @Emanuela Barbieri Il vaso di Pandora? È il solito teatrino dell’innovazione. Costruiscono cattedrali sulla sabbia per la fretta di vendere il futuro. Poi si meravigliano se tutto sprofonda.

      1. Emanuela Barbieri

        @Gabriele Caruso Più che un teatrino, mi sembra un gioco d’azzardo fatto con i nostri dati. La cosa che inquieta è il sospetto che loro sappiano benissimo che il banco salterà. Non è fretta, è un rischio che hanno calcolato per noi.

  3. Costruire fortezze digitali con muri di carta è la prassi, spinti dalla fretta di apparire al passo coi tempi. La sola vera sorpresa è che ci sia ancora qualcuno stupito da questi crolli.

    1. Federica Testa

      @Noemi Conti Crolli? Io vedo opportunità. Milioni di file di McKinsey esposti sono un tesoro per i competitor. La vera domanda non è perché è successo, ma chi sta già scaricando i dati in questo preciso momento.

      1. @Federica Testa Chiamarla opportunità mi pare una visione ristretta. È la logica del profitto a ogni costo che ha portato a questo buco di sicurezza. Il punto non è chi scarica, ma quanti altri colossi sono messi uguale e ancora non lo sanno.

  4. Melissa Romano

    Macchine contro macchine, una guerra silenziosa. I nostri dati sono il campo di battaglia. Un futuro che non rassicura.

  5. Emanuela Barbieri

    Un delizioso contrappasso vedere un colosso inciampare sulla tecnologia che vende come panacea. Questa corsa famelica all’implementazione genera vulnerabilità automatiche. Mi chiedo quanti altri altari digitali, eretti con la stessa superficialità, siano pronti a crollare al primo soffio di vento.

    1. Filippo Villa

      @Emanuela Barbieri Chiamare “altari” delle architetture colabrodo è quasi un complimento. La solita giostra: il marketing vende fuffa, la security è un optional e i dati finiscono in pasto al primo che passa. Tutto ampiamente prevedibile.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Ricevi i migliori aggiornamenti di settore