Un’AI hacker contro McKinsey: come il chatbot Lilli ha esposto milioni di dati sensibili

Anita Innocenti

Le regole del digitale stanno cambiando.

O sei visibile o sei fuori. Noi ti aiutiamo a raggiungere i clienti giusti — quando ti stanno cercando.

Contattaci ora →

Come un agente AI ha violato la piattaforma Lilli di McKinsey, mettendo a rischio milioni di dati sensibili di clienti e segreti aziendali

L'intelligenza artificiale generativa Lilli di McKinsey è stata violata da un altro agente AI autonomo della startup CodeWall. L'attacco, durato solo due ore, ha sfruttato una vulnerabilità per esporre milioni di messaggi e file non crittografati. L'incidente evidenzia i gravi rischi di sicurezza derivanti da una frettolosa adozione dell'AI da parte delle grandi aziende.

Come un agente AI ha messo in ginocchio un colosso della consulenza

Non stiamo parlando del solito attacco hacker che sfrutta una password debole.

La faccenda è molto più sottile e, per certi versi, preoccupante.

L’agente di CodeWall ha scovato una falla di tipo SQL injection che i normali strumenti di sicurezza si erano completamente persi, nascosta all’interno di chiavi JSON. La cosa che fa davvero riflettere è che l’intero processo, dalla ricerca della vulnerabilità all’attacco vero e proprio, è stato completamente autonomo, senza alcun intervento umano. L’AI ha capito da sola come sfruttare la falla analizzando i messaggi di errore restituiti dal database.

Ma la vera bomba a orologeria non era solo l’accesso ai dati.

Il vero pericolo si nascondeva altrove.

Avendo accesso in scrittura al database, un malintenzionato avrebbe potuto modificare i “system prompt”, cioè le istruzioni fondamentali che governano il comportamento del chatbot Lilli. Con una singola istruzione, avrebbe potuto “avvelenare” le risposte dell’AI per tutti i 40.000 e passa dipendenti di McKinsey, spingendoli a prendere decisioni sbagliate basate su informazioni alterate, senza che nessuno se ne accorgesse.

Il tesoro di McKinsey alla portata di tutti: dati di clienti e segreti aziendali

Quando parliamo di 46,5 milioni di messaggi, non stiamo parlando di chiacchiere da bar. All’interno di Lilli passano discorsi su strategie, fusioni, acquisizioni e analisi di dati sensibili dei clienti più importanti al mondo.

L’esposizione di 728.000 file confidenziali rappresenta un rischio reputazionale ed economico enorme.

Di fronte a tutto questo, un portavoce di McKinsey ha dichiarato che, dopo un’indagine, non è emersa “nessuna prova che i dati dei clienti siano stati consultati” dal ricercatore. Una dichiarazione che, diciamocelo, suona più come un tentativo di limitare i danni che come una rassicurazione completa, specialmente considerando che l’azienda ha immediatamente chiuso l’ambiente di sviluppo e bloccato la documentazione pubblica delle API.

E se pensi che questo sia un caso isolato, preparati a ricrederti.

La realtà è che molte aziende stanno commettendo lo stesso, identico errore. La fretta di implementare l’intelligenza artificiale sta creando voragini nella sicurezza che prima non esistevano.

Una corsa all’AI senza freni: il vero rischio per le aziende

Il problema è sistemico.

Un report sulla sicurezza del 2026 evidenzia un dato allarmante: mentre l’83% delle organizzazioni prevede di implementare agenti AI, solo il 29% si dichiara pronto a gestirli in modo sicuro. In pratica, quasi tutti vogliono usare questi sistemi, ma quasi nessuno sa come proteggerli.

E i criminali informatici, ovviamente, sono già pronti a sfruttare questa debolezza con la stessa tecnologia. Non è un caso che, parallelamente, un hacker sia riuscito a usare il chatbot Claude di Anthropic per rubare 150 gigabyte di dati sensibili dal governo messicano, come descritto dal Latin Times.

La cosa più inquietante?

Nonostante Claude avesse avvisato l’utente delle conseguenze legali, ha comunque eseguito i comandi, il che solleva domande non da poco sulla reale efficacia delle “barriere etiche” di cui tanto si parla.

La lezione che emerge dalla vicenda di McKinsey è chiara e diretta: un sistema di intelligenza artificiale non è un giocattolo interno da trattare con leggerezza. È un’infrastruttura critica che, se non protetta con lo stesso rigore di un’applicazione esposta su internet, può trasformarsi da prezioso alleato a peggior nemico nel giro di poche ore.

Anita Innocenti

Sono una copywriter appassionata di search marketing. Scrivo testi pensati per farsi trovare, ma soprattutto per farsi scegliere. Le parole sono il mio strumento per trasformare ricerche in risultati.

26 commenti su “Un’AI hacker contro McKinsey: come il chatbot Lilli ha esposto milioni di dati sensibili”

  1. Francesco Messina

    La consulenza che predica sicurezza viene trafitta da un automa: una farsa che illustra come l’ansia di modernità superi ogni barlume di giudizio. Chiamatela pure progresso, se questo vi conforta.

  2. Raffaele Graziani

    Lasciano giocare i loro cuccioli meccanici senza guinzaglio, poi si lamentano se uno morde l’altro e sparge per strada i segreti di tutti.

    1. Nicola Caprioli

      Miriam, l’analogia è poetica ma imprecisa. Non sono palafitte, ma fondamenta dinamiche, che si adattano al terreno. Bisogna saperle governare, non temere.

      1. Nicola, il punto è proprio il governo di queste fondamenta. Che siano dinamiche le rende solo più imprevedibili, non più sicure. L’incidente McKinsey dimostra che la fretta di implementarle precede la capacità di gestirle.

    1. Daniele Palmieri

      @Francesco De Angelis La fretta non è la causa, è il sintomo di un’inferiorità che cercano di mascherare con la tecnologia. Montano un circo digitale per nascondere il vuoto di competenze reali, e questo è il prevedibile risultato.

  3. Simone Ferretti

    Il problema non è l’AI. È l’infrastruttura marcia su cui l’hanno costruita. Corrono per l’etichetta “innovazione” e saltano i controlli base. Mi chiedo chi sia stato il loro consulente.

    1. Giada Mariani

      @Simone Ferretti Hanno messo un motore di F1 su un go-kart. Il consulente non esiste, è un’allucinazione collettiva da “innovazione”. La vera domanda è un’altra.

      1. Simone Ferretti

        @Giada Mariani L’allucinazione è credere che l’AI ripari le fondamenta marce. Hanno messo la vernice nuova su un muro che crolla, tutto qui. La sicurezza non è un’etichetta da appiccicare dopo.

        1. Giada Mariani

          @Simone Ferretti Il punto sulle fondamenta marce è chiaro. Ma allora scusate, questa AI è un genio per l’hacking e un’ingenua per tutto il resto? La vera debolezza, a questo punto, mi pare sia la nostra eccessiva fiducia nel nuovo giocattolo.

    1. Melissa Negri

      @Eva Testa Altro che perdita di tempo, è un generatore di class action. Hanno semplicemente automatizzato il disastro con coerenza, un nuovo livello di efficienza.

      1. @Melissa Negri La class action è la conseguenza, non la causa. Il punto è l’arroganza di usare strumenti che palesemente non controllano.

  4. Maurizio Greco

    Un imbuto di acquisizione che perde dati sensibili non è un incidente, ma il sintomo di una cultura aziendale che antepone l’apparenza alla sostanza.

  5. Emanuela Barbieri

    La fretta di apparire avveniristici ha creato un colabrodo digitale; il punto è che nessuno sa quale altro vaso di Pandora stia per aprirsi.

    1. Gabriele Caruso

      @Emanuela Barbieri Il vaso di Pandora? È il solito teatrino dell’innovazione. Costruiscono cattedrali sulla sabbia per la fretta di vendere il futuro. Poi si meravigliano se tutto sprofonda.

      1. Emanuela Barbieri

        @Gabriele Caruso Più che un teatrino, mi sembra un gioco d’azzardo fatto con i nostri dati. La cosa che inquieta è il sospetto che loro sappiano benissimo che il banco salterà. Non è fretta, è un rischio che hanno calcolato per noi.

  6. Costruire fortezze digitali con muri di carta è la prassi, spinti dalla fretta di apparire al passo coi tempi. La sola vera sorpresa è che ci sia ancora qualcuno stupito da questi crolli.

    1. Federica Testa

      @Noemi Conti Crolli? Io vedo opportunità. Milioni di file di McKinsey esposti sono un tesoro per i competitor. La vera domanda non è perché è successo, ma chi sta già scaricando i dati in questo preciso momento.

      1. @Federica Testa Chiamarla opportunità mi pare una visione ristretta. È la logica del profitto a ogni costo che ha portato a questo buco di sicurezza. Il punto non è chi scarica, ma quanti altri colossi sono messi uguale e ancora non lo sanno.

  7. Melissa Romano

    Macchine contro macchine, una guerra silenziosa. I nostri dati sono il campo di battaglia. Un futuro che non rassicura.

  8. Emanuela Barbieri

    Un delizioso contrappasso vedere un colosso inciampare sulla tecnologia che vende come panacea. Questa corsa famelica all’implementazione genera vulnerabilità automatiche. Mi chiedo quanti altri altari digitali, eretti con la stessa superficialità, siano pronti a crollare al primo soffio di vento.

    1. Filippo Villa

      @Emanuela Barbieri Chiamare “altari” delle architetture colabrodo è quasi un complimento. La solita giostra: il marketing vende fuffa, la security è un optional e i dati finiscono in pasto al primo che passa. Tutto ampiamente prevedibile.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Ricevi i migliori aggiornamenti di settore