Le regole del digitale stanno cambiando.
O sei visibile o sei fuori. Noi ti aiutiamo a raggiungere i clienti giusti — quando ti stanno cercando.
Contattaci ora →
Una superficialità costata cara: l’IA ha permesso ai criminali di violare un sistema AWS in soli otto minuti, sfruttando credenziali esposte e funzioni Lambda vulnerabili.
Un banale errore umano, credenziali AWS lasciate in un bucket S3 pubblico, ha permesso a un gruppo di aggressori di ottenere il controllo totale dell'ambiente in soli otto minuti. L'attacco, potenziato dall'intelligenza artificiale, evidenzia la drammatica accelerazione delle minacce e l'inadeguatezza delle difese tradizionali, dimostrando come la corsa all'innovazione non possa prescindere dalle basi della sicurezza.
La falla? un errore banale che ha spalancato le porte
Tutto è cominciato nel modo più classico e, diciamocelo, quasi imbarazzante: delle credenziali AWS valide lasciate in bella vista all’interno di un bucket S3 pubblico.
Dati che, ironia della sorte, servivano proprio per alimentare modelli di intelligenza artificiale.
Come riportato nel dettaglio da The Register, l’utente compromesso aveva permessi di lettura e scrittura su AWS Lambda e un accesso limitato ad Amazon Bedrock, configurazioni pensate probabilmente per automatizzare task legati all’IA.
Un errore di superficialità, figlio di quella fretta che spinge tante aziende a buttarsi sull’intelligenza artificiale senza prima blindare le fondamenta.
Ma una volta dentro, non si sono certo messi a guardare il panorama.
È qui che la storia prende una piega diversa, e la velocità diventa il vero protagonista.
L’intelligenza artificiale come arma: dall’accesso all’amministrazione in un lampo
In appena sei minuti dal furto delle credenziali, gli aggressori avevano già mappato le risorse su ben 12 servizi principali di AWS, da Secrets Manager a EC2.
Una ricognizione così rapida da ingannare i sistemi di monitoraggio tradizionali, che di solito hanno bisogno di molto più tempo per riconoscere un’attività sospetta.
Subito dopo, hanno puntato al bersaglio grosso: i permessi da amministratore.
Invece di provare a forzare ruoli di alto livello, mossa che avrebbe fatto scattare allarmi, hanno agito d’astuzia: hanno modificato una funzione Lambda esistente, chiamata EC2-init, che guarda caso possedeva già privilegi amministrativi. Hanno iniettato del codice Python malevolo, creato un nuovo utente amministratore chiamato “frick” e recuperato le sue chiavi di accesso direttamente dall’output della funzione.
Il tutto, in meno di due minuti.
Ottenuto il controllo totale, l’attacco cambia faccia. Non si tratta più solo di entrare, ma di sfruttare, di spremere ogni risorsa possibile. E lo fanno in un modo che complica enormemente la vita a chiunque debba poi rimettere insieme i pezzi.
LLMjacking e la beffa finale: quando la tua IA lavora per il nemico
Con le chiavi del regno in mano, l’attività degli aggressori è diventata frenetica. Per nascondere le loro tracce, hanno saltato tra sei diversi ruoli IAM e creato accessi per altri cinque utenti, spargendo le loro azioni su 19 “identità” diverse per rendere quasi impossibile la ricostruzione degli eventi.
Poi, è iniziata la fase dello sfruttamento. Dopo aver verificato che la registrazione delle attività su Amazon Bedrock era disattivata – un’altra svista non da poco – hanno iniziato a usare a man bassa i costosi modelli di IA a disposizione, come Claude 4 e Amazon Nova Premier.
Questa pratica, nota come “LLMjacking“, trasforma i tuoi strumenti di intelligenza artificiale in risorse a disposizione degli aggressori, che possono usarle per i loro scopi.
La beffa finale?
Hanno tentato di attivare potenti istanze GPU, riuscendo a mettere in piedi un server p4d.24xlarge per avere una porta d’accesso persistente.
Jason Soroko, senior fellow di Sectigo, ha sottolineato che, al di là della novità dell’IA, il punto di partenza resta un errore fondamentale: credenziali esposte.
Viene da chiedersi se la corsa sfrenata all’innovazione, tanto spinta da colossi come AWS, non stia facendo dimenticare le basi della sicurezza a troppe aziende.

L’intelligenza artificiale accelera solo il disastro, ma la stupidità umana è il vero motore. Mi viene un’ansia a pensare a quante piccole imprese, senza team di sicurezza dedicati, siano esposte allo stesso modo. Dormiremo sonni tranquilli, dicono.
Paola Caprioli, l’IA è un bambino che corre, la stupidità è la buccia di banana per terra. I sonni tranquilli? Forse dopo aver pulito il pavimento, si capisce.
Certo che la falla è umana, che sfiga. L’IA ha solo schiacciato l’acceleratore. Questa roba mi fa venire l’ansia, devo ricontrollare tutti i miei accessi.
Si maschera l’incompetenza con l’acronimo AI. La falla è umana, banale, prevedibile. Il problema non è la tecnologia, ma la sua applicazione negligente.
Magnifico come l’intelligenza artificiale venga usata per dare un’aura fantascientifica a un errore umano banale. Celebriamo la velocità con cui la tecnologia ci ricorda quanto siamo superficiali nelle procedure di base.
@Isabella Sorrentino “Attacco AI”. Che ridere. È un attacco di stupidità. La tecnologia amplifica solo quello che sei: un genio o un incapace. Punto.
Osserviamo queste macchine correre velocissime verso il futuro, mentre noi inciampiamo sugli stessi, identici sassi da millenni. Non è quasi tenero, nella sua tragicità?
Colpa dell’IA? Raga, è come lasciare la porta di casa aperta e prendersela con la corrente d’aria. Otto minuti sono un’eternità per un software. L’errore umano resta il nostro superpotere.
Lasciano le credenziali in chiaro e la colpa è dell’IA. Logico. Gestisco le prenotazioni del mio B&B con più criterio di questi fenomeni.
Marco Basile, beato te che hai certezze. Otto minuti sono il tempo di un caffè e a volte temo che basterebbero anche a me.
L’intelligenza artificiale fa il suo, ma quella naturale dove si era nascosta quel giorno?
Paolo Fiore, l’intelligenza naturale non si nascondeva, era indaffarata a lasciare le chiavi del castello sullo zerbino. L’IA è solo il primo passante che le ha raccolte. Stiamo semplicemente costruendo autostrade più veloci per guidare bendati verso il primo muro disponibile.
Dare la colpa all’IA è una scusa. Il problema non è la velocità dell’attacco, ma la negligenza che l’ha permesso. Si investe in strumenti avanzati senza curare le basi. Una ricetta per il disastro, annunciato e puntuale.
Abbiamo creato strumenti potentissimi per inciampare più velocemente. E poi ci meravigliamo pure. A cosa servirà il prossimo passo?
È come dare una Formula 1 in mano a chi non ha la patente. Questa tanto decantata intelligenza artificiale accelera solo la corsa verso il muro della propria incompetenza, a quanto pare.
Corriamo tanto per poi inciampare sul gradino di casa, che fretta c’era poi?