Le regole del digitale stanno cambiando.
O sei visibile o sei fuori. Noi ti aiutiamo a raggiungere i clienti giusti — quando ti stanno cercando.
Contattaci ora →
Un ricercatore ha impiegato solo 20 ore e 2.000 euro per guidare l’intelligenza artificiale generalista di Anthropic nella costruzione di un attacco funzionante a Google Chrome, abbassando drasticamente la soglia d’ingresso per lo sviluppo di minacce complesse.
L'esperimento del ricercatore Mohan Pedhapati è un campanello d'allarme: con circa 2.000 euro, l'IA Claude Opus di Anthropic è stata usata per creare un exploit per Chrome. Questo non solo dimostra la potenza delle IA generaliste, ma espone anche la fragilità delle barriere di sicurezza, rendendo la creazione di minacce informatiche accessibile come mai prima d'ora.
Claude Opus, l’IA di Anthropic, crea un exploit per Chrome con soli 2.000 euro: la sicurezza è un’illusione?
Un ricercatore di sicurezza ha appena fatto qualcosa che dovrebbe farci drizzare le antenne: ha usato Claude Opus, un modello di intelligenza artificiale di Anthropic disponibile a tutti, per costruire da zero un exploit funzionante contro Google Chrome. Il punto non è solo che ci è riuscito, ma quanto gli è costato: circa 2.283 dollari e una ventina di ore di lavoro.
Una cifra che, nel mondo della cyber-sicurezza, è praticamente un’offerta speciale.
Mohan Pedhapati, il CTO di Hacktron che ha condotto l’esperimento, non ha scoperto una vulnerabilità nuova, ma ha fatto qualcosa di forse più preoccupante. Ha dimostrato che un’IA “generalista” può essere trasformata in un’arma informatica con una spesa irrisoria, mettendo in discussione le rassicurazioni dei giganti tech sulla sicurezza dei loro modelli. La notizia, come descritto nel dettaglio su The Register, non è un semplice esercizio tecnico, ma una sveglia che suona forte e chiara per tutti.
E la parte più interessante, diciamocelo, è che per farlo non ha avuto bisogno di chissà quali strumenti segreti.
Ha solo “dialogato” con l’IA, guidandola passo dopo passo.
Come ci è riuscito? non è stata una passeggiata
Chiariamo subito un punto: non è che Pedhapati ha premuto un bottone e l’IA ha sfornato un exploit pronto all’uso.
Il processo ha richiesto un’intensa supervisione umana.
Ha dovuto “imboccare” Claude con le informazioni giuste, correggere i suoi errori e guidarlo quando si perdeva in loop logici. In pratica, ha agito come un direttore d’orchestra, con l’IA nel ruolo del musicista talentuoso ma inesperto.
L’obiettivo era una versione di Chrome integrata nell’app di Discord, scelta non a caso perché meno protetta rispetto al browser standard. Sfruttando due falle di sicurezza note, una delle quali presente anche nell’applicazione desktop della stessa Anthropic (un’ironia non da poco), l’IA è riuscita a costruire una catena d’attacco funzionante che permetteva l’esecuzione di codice da remoto.
È la prova che, con la giusta guida, questi strumenti possono fare un lavoro che fino a ieri era riservato a esperti di altissimo livello.
Il punto chiave, però, non è la complessità tecnica, ma l’impatto economico di questa operazione.
E qui le cose si fanno davvero scomode, soprattutto per chi produce queste tecnologie.
Il conto in banca e le domande scomode per Anthropic
Il vero nocciolo della questione sta tutto nei numeri. Un exploit del genere, se venduto sul mercato o ricompensato tramite un programma di “bug bounty”, vale almeno 15.000 dollari. Pedhapati ne ha spesi poco più di 2.000.
Questo significa che il ritorno sull’investimento è enorme e, di colpo, lo sviluppo di attacchi informatici diventa economicamente accessibile a un pubblico molto più vasto.
E Anthropic che dice?
La faccenda è imbarazzante. L’azienda aveva volutamente tenuto segreto un suo modello specializzato nella ricerca di vulnerabilità, chiamato Mythos, proprio per paura che potesse essere usato da malintenzionati. Una mossa presentata come un atto di responsabilità.
Peccato che, a quanto pare, il loro modello di punta disponibile a tutti sia perfettamente in grado di fare lo stesso lavoro, seppur con più fatica. Viene da chiedersi se quella “responsabilità” non fosse, in realtà, una mossa di marketing per rassicurare il mercato.
La verità, schietta come sempre, è che la capacità di queste IA sta crescendo a un ritmo tale che le “barriere di sicurezza” imposte dai produttori sembrano più dei cancelli di cartone che delle vere fortezze. E questo ci porta dritti alla domanda finale.
Cosa significa tutto questo per il futuro?
Stiamo dicendo che chiunque può diventare un hacker con 2.000 euro in tasca?
No, non ancora.
L’esperienza e l’intuito umano, come dimostra il lavoro di Pedhapati, sono ancora fondamentali per guidare l’IA. Ma stiamo dicendo che la soglia d’ingresso per creare minacce complesse si è abbassata drasticamente.
Un esperto con un budget limitato oggi può fare quello che ieri era riservato a team con grandi risorse. L’IA diventa una specie di “apprendista instancabile” che accelera il lavoro, abbattendo tempi e costi. E se oggi serve ancora un bravo “maestro” per dirigerla, domani le cose potrebbero cambiare molto in fretta.
La questione, quindi, non è più se le IA verranno usate per attacchi su larga scala, ma quando.
E la corsa tra chi costruisce le difese e chi progetta gli attacchi è appena diventata molto, molto più veloce.

Duemila euro non sono una soglia bassa, sono il prezzo di listino. L’IA è solo un nuovo acceleratore per un collasso annunciato. La nostra fiducia è il prodotto, la vulnerabilità è la feature.
Mi preoccupa più la nostra tenera fiducia che non il buco nel software.
@Noemi Barbato Il punto è proprio quello. La fiducia. Io parto dal presupposto che sia tutto rotto di default. L’IA ha solo reso più economico il lavoro sporco. Niente di nuovo sotto il sole.
Un nuovo scalpello per incidere il vuoto. Le casseforti digitali sono scatole vuote. Ce ne accorgiamo solo adesso per il rumore che fa?
Ci si allarma per un nuovo grimaldello capace di forzare una porta di cartapesta. La questione non è l’attrezzo, ma l’illusione di aver costruito una fortezza quando in realtà viviamo in case di carta.
Ci agitiamo in questo mare digitale che abbiamo creato, porgendo ai predatori le armi per divorarci meglio. Chissà se il mio lavoro non si riduca a insegnare come sistemare il colletto della camicia mentre la nave cola a picco.
Alice, piuttosto che ai colletti, penso a come monetizzare la costruzione di nuovi scafi.
Stupirsi per la fragilità dei sistemi è come meravigliarsi della pioggia. La vera domanda è chi costruirà la prossima arca, e a quale prezzo?
Patrizia Bellucci, temo non esista alcuna arca. Si naviga a vista su zattere improvvisate. La questione non è il prezzo, ma chi resterà a bordo quando arriverà la vera tempesta.
Danilo Graziani, le zattere sono già affondate da tempo. Ci si agita in un mare di falle mascherate da progresso. La questione non è chi resta a bordo, ma chi si illude ancora di galleggiare su questi relitti digitali.
Magnifico, con il costo di un weekend fuori porta ora chiunque può assemblare il proprio armageddon digitale. Ci voleva proprio questa democratizzazione del caos per rendere le nostre vite ancora più serene.
Laura Bruno, fatico a comprendere la sorpresa generale per quella che è una logica evoluzione: la consulenza sulla sicurezza diventa un servizio on-demand a prezzi popolari. Non è forse questo il progresso che tutti celebriamo, applicato a un settore differente?
Con duemila euro si scopre il punto debole di un gigante. Un ottimo ritorno sull’investimento. Questo non è un allarme per la sicurezza, è un avviso per chi lavora lentamente.
L’IA è solo un martello più efficiente. Ha colpito il chiodo storto piantato da Google. La colpa non è dello strumento, ma dell’architettura debole. Quando si smetterà di costruire cattedrali sulla sabbia?
L’IA è un grimaldello che apre ogni porta. Fantastico per chi esplora. Ma ora la nostra casa digitale ha le pareti di carta. Sento un’improvvisa vertigine su dove ci porterà tutto questo.
L’AI non ha colpe, ha solo accelerato il processo. La vera debolezza è chi progetta sistemi di sicurezza così scarsi. Bisogna darsi una svegliata.