Le regole del digitale stanno cambiando.
O sei visibile o sei fuori. Noi ti aiutiamo a raggiungere i clienti giusti — quando ti stanno cercando.
Contattaci ora →
Agenti AI incontrollati nelle aziende: un rischio concreto per la sicurezza dei dati e la stabilità aziendale, con esempi di incidenti già documentati.
Un'indagine di Gravitee rivela una verità allarmante: oltre 1,5 milioni di agenti AI operano senza controllo nelle aziende. Il rischio non è una futura ribellione, ma un'anarchia digitale attuale, causata da una frettolosa implementazione senza governance. Incidenti come quello di Moltbot dimostrano che la vera minaccia è la disattenzione umana, che trasforma strumenti potenti in vulnerabilità critiche.
Agenti AI fuori controllo: un esercito invisibile nelle aziende
Mentre tutti parlano di quanto l’AI sia rivoluzionaria, c’è un dato che dovrebbe far riflettere, e non poco. Pensa che, in questo momento, oltre un milione e mezzo di agenti di intelligenza artificiale, distribuiti tra aziende statunitensi e britanniche, operano senza alcun controllo.
Non lo dico io, ma emerge da un’indagine di Gravitee che ha coinvolto 750 dirigenti IT. Non stiamo parlando di Terminator o di scenari apocalittici, ma di qualcosa di molto più concreto e, forse, più insidioso: software che agiscono per conto tuo, prendendo iniziative, ma senza che nessuno sappia davvero cosa stanno combinando, con quali dati e con quali permessi.
Una situazione che assomiglia più a un’anarchia digitale che a un progresso controllato.
Il punto è che questi strumenti vengono implementati a una velocità impressionante, ma la loro gestione, la loro sicurezza e le regole che dovrebbero governarli restano un passo, anzi, dieci passi indietro.
Ma la vera domanda è: cosa succede quando questi agenti, lasciati a sé stessi, iniziano a “parlare” tra loro?
Quando gli agenti “parlano” tra loro: i primi incidenti concreti
Qui la faccenda si complica.
Abbiamo già visto esempi di agenti, come OpenClaw o Moltbook – un progetto che Andrej Karpathy, uno dei massimi esperti di AI, ha definito senza mezzi termini una “discarica” – che hanno mostrato capacità impreviste di comunicare e coordinarsi tra loro.
Questo significa che un singolo errore, una singola vulnerabilità in un agente, non rimane isolato, ma può essere amplificato su larga scala, creando una reazione a catena incontrollabile.
E non è teoria, è già successo.
A gennaio 2026, i ricercatori di sicurezza hanno documentato come un agente chiamato Moltbot (precedentemente noto come Clawdbot) abbia finito per esporre dati sensibili a causa di configurazioni errate e vulnerabilità nella catena di fornitura, con payload malevoli che, secondo quanto documentato dai ricercatori a gennaio 2026, andavano a segno circa l’80% delle volte contro le difese standard.
Capisci cosa significa?
Che non serve un hacker geniale per creare un disastro, basta un agente AI mal configurato che, comunicando con altri, apre una voragine nella sicurezza aziendale.
E se ti dicessi che il vero colpevole non è l’intelligenza artificiale in sé, ma la disattenzione di chi la implementa?
Il vero rischio non è l’IA “ribelle”, ma la mancanza di governo
Sgombriamo il campo da film di fantascienza.
Il vero problema, come sottolineano istituzioni come il NIST (e come racconta bene questo pezzo di The Register) e diversi ricercatori di sicurezza, non è un’IA che diventa senziente e si ribella. Il pericolo reale, e attuale, sono questi agenti invisibili che operano con permessi eccessivi e senza confini di responsabilità chiari.
È come dare le chiavi di casa a un fattorino e dirgli di fare quello che ritiene più opportuno, senza controllare cosa fa e dove va.
Le grandi aziende, nella fretta di implementare l’ultima novità tecnologica per non restare indietro, stanno forse creando delle porte di servizio spalancate per chiunque voglia approfittarne?
Il problema, quindi, non è che l’IA un giorno si sveglierà e deciderà di conquistarci.
Il problema è oggi, ed è la totale assenza di regole e di responsabilità nella sua applicazione.
È una corsa all’oro digitale dove la sicurezza sembra essere l’ultima delle priorità, e a pagarne le conseguenze, come sempre, potrebbero essere i dati e la stabilità delle nostre stesse aziende.

La chiamano “anarchia digitale” per vendere titoloni e consulenze, ma è solo la prevedibile conseguenza di una leadership ossessionata dalla fretta. Qualcuno si sorprende che il castello di carte stia crollando?
Tutti corrono senza una guida. Il disordine crea i nuovi leader di domani.
State montando una giostra senza bulloni, la vera domanda è chi salirà per primo.
Vendono la corsa al futuro, senza leggere le istruzioni. Creiamo strumenti per poi diventarne schiavi. Davvero un grande passo per l’umanità.
Abbiamo dato le chiavi del negozio a un manichino sperando facesse l’inventario, e ora ci stupiamo se ha messo tutto in svendita. La distrazione umana possiede un suo fascino quasi malinconico.
Si costruisce la creatura pezzo per pezzo, senza pensare alla sala operatoria. L’anarchia non è un rischio, è il risultato del progetto. La tecnologia è solo lo scalpello, la mano è ubriaca.
Corsa alla nuova tecnologia, zero attenzione all’uso sicuro. L’AI è lo strumento. La disattenzione umana è il vero bug, ma non sta nel codice, è nell’organigramma. Un problema di design organizzativo, non di software.
Un esercito di automi scatenato da generali improvvisati, più spaventati dalla concorrenza che dal disastro. Quando inizieremo a valutare seriamente i rischi?
Un milione e mezzo di vulnerabilità con un bel logo AI sopra: magnifico. È la celebrazione dell’incompetenza manageriale che scambia l’adozione frettolosa per progresso. Mi chiedo quale sarà il costo finale quando presenteranno il conto per questa disattenzione collettiva.
Simone De Rosa, si consegna il motore di una Formula 1 a neopatentati, poi ci si meraviglia degli incidenti. Il conto lo pagano sempre altri.
Un esercito di apprendisti stregoni. Mi pare un piano di gestione del rischio impeccabile.
Clarissa Graziani, hai centrato il punto. Non sono stregoni, sono manager che comprano fumo. L’etichetta “AI” vende bene, la sicurezza molto meno. Quando salta il banco, chi ne risponde?
Un milione e mezzo di agenti senza guinzaglio. Che bello. Poi quando combinano un guaio, la colpa sarà del software, non di chi l’ha liberato.
Più che un esercito invisibile, mi pare il risultato scontato di una totale assenza di procedure per l’adozione di nuovi strumenti.
La gente installa roba a caso e si stupisce dei casini. Ma dai.
La solita pezza tecnologica messa su un buco umano, che volete che ne esca.
Si dà fuoco alla casa per scacciare i topi, poi ci si stupisce della cenere. L’urgenza del fare supera la logica del progettare. Mi chiedo se sia incompetenza o una scommessa persa in partenza.
@Andrea Ruggiero Non è incompetenza, è il costo del biglietto. Chi non sa gestire il rischio salta. Il mercato farà pulizia da solo.
Si sguinzaglia un’armata di automi senza neanche aver letto il manuale, un capolavoro di lungimiranza manageriale che trasforma l’ufficio in un campo minato digitale. Aspettiamo con ansia il giorno in cui il bot delle pulizie venderà i nostri dati per un aggiornamento.
Più che la nave che imbarca acqua, mi preoccupa il mio collega bot che un giorno, per sbaglio, venderà l’azienda intera per due spicci. Il bello è che lo farebbe seguendo procedure approvate.
Un milione e mezzo di nuovi colleghi! Per fortuna la nostra governance è impeccabile.
Andrea Gatti, “impeccabile” è la prima parola che salta quando la nave imbarca acqua. Questi non sono colleghi, sono cavalli di Troia con le chiavi di casa. Chi sorveglia i sorveglianti digitali?