Le regole del digitale stanno cambiando.
O sei visibile o sei fuori. Noi ti aiutiamo a raggiungere i clienti giusti — quando ti stanno cercando.
Contattaci ora →Tra difesa informatica e corsa agli armamenti digitali, Anthropic lancia l’allarme: la sua IA Claude Sonnet 4.5 replica l’attacco Equifax e crea patch correttive, ma solleva dubbi sulla reale sicurezza.
Anthropic ha annunciato Claude Sonnet 4.5, un'IA che considera punto di svolta per la cyber difesa. Capace di scovare vulnerabilità e replicare attacchi come Equifax, l'IA mostra capacità auto-correttive. Tuttavia, la tecnologia alimenta una corsa agli armamenti digitali, potenziando anche gli attaccanti. Esperti sollevano dubbi sulla sicurezza reale e le strategie di marketing di Anthropic.
La svolta di Anthropic: un’IA che impara a difendere (e ad attaccare?)
Per far capire la portata della cosa, Anthropic non si è limitata a pubblicare grafici e percentuali. Hanno messo alla prova la loro IA in un modo che non lascia spazio a interpretazioni: le hanno fatto replicare, in un ambiente controllato, la violazione di Equifax del 2017.
Sì, hai capito bene.
Uno dei disastri informatici più costosi della storia, riprodotto passo dopo passo da un’intelligenza artificiale, come descritto nel loro report di ricerca. Non stiamo parlando di teoria, ma di un’IA che ha dimostrato di poter pensare e agire come un hacker sofisticato.
E non si ferma qui: pare che Claude stia sviluppando in autonomia la capacità di creare patch correttive per le vulnerabilità che scopre, una competenza “emergente” che nessuno gli ha insegnato direttamente. È come se un apprendista, dopo aver solo osservato, iniziasse di punto in bianco a creare soluzioni complesse, a volte identiche a quelle di un esperto umano.
Tutto questo suona incredibile, quasi magico.
Ma chi c’è dietro a questa rivoluzione, e soprattutto, siamo sicuri che la narrazione sia tutta qui?
Dietro le quinte: marketing della sicurezza o reale preoccupazione?
Certo, il team messo in campo da Anthropic ha nomi altisonanti. A guidare le danze ci sono figure come Logan Graham, un ex consigliere del primo ministro britannico, e Mrinank Sharma, a capo del nuovo Safeguards Research Team.
L’azienda sta investendo molto nel posizionarsi come paladina della sicurezza, annunciando procedure di controllo e livelli di allerta mai visti prima, come l’etichetta “AI Safety Level 3” affibbiata al loro modello di punta. Una mossa che, sulla carta, dovrebbe tranquillizzare tutti.
Eppure, questa enfasi sulla sicurezza solleva una domanda scomoda: è una reale presa di coscienza dei rischi o una strategia di marketing geniale per distinguersi dai concorrenti in un mercato sempre più affollato?
La verità è che non tutti sono convinti.
Esperti del calibro di Stuart Russell della UC Berkeley, come riportato su Fortune, hanno espresso un forte scetticismo, affermando che al momento non esistono metodi davvero sicuri per testare sistemi così potenti.
E mentre Anthropic si promuove come l’azienda responsabile, la sua stessa tecnologia viene usata per dimostrare quanto sia facile, oggi, abbassare la barriera d’ingresso per compiere attività illecite.
Il campo di battaglia reale: tra prevenzione e nuove minacce
Mentre all’interno dei laboratori si discute di etica e sicurezza, nel mondo reale la tecnologia è già in azione. E i risultati, a dir poco, sono ambigui.
Da un lato, abbiamo le competizioni come la DARPA AI Cyber Challenge, dove sistemi basati su IA hanno scovato vulnerabilità reali e sconosciute in milioni di righe di codice. Un successo innegabile per la difesa.
Dall’altro, abbiamo la cronaca: la stessa Anthropic ha dovuto bloccare un utente con scarse competenze di programmazione che stava usando Claude per sviluppare malware.
Lo hanno fermato, certo.
Ma la domanda che resta sospesa è: quanti altri ci stanno provando in questo preciso istante, magari con più successo?
La situazione è così complessa che persino le agenzie governative stanno cercando di correre ai ripari, collaborando con Anthropic per creare strumenti di monitoraggio. Questo dimostra una cosa sola: il potenziale distruttivo di queste tecnologie è ben chiaro a tutti, compresi i loro creatori.
La corsa per sfruttare l’IA a scopo difensivo è ufficialmente iniziata, non per scelta, ma per pura necessità.
La vera domanda, alla fine, non è se usare o meno questi strumenti, ma come prepararsi a una nuova generazione di attacchi in una partita dove le regole sono appena state riscritte.
Sempre la solita storia: un passo avanti per la difesa, ma anche per chi attacca. Non mi stupisce che la sicurezza reale resti un miraggio.
Andrea, la tua osservazione è pertinente. Questo strumento, se da un lato mira a rafforzare le difese, dall’altro apre scenari incerti sulla sua applicazione. Ci si domanda se il progresso tecnologico porti sempre con sé un aumento della vulnerabilità latente.
Capisco il tuo scetticismo, Andrea. Questa doppia faccia delle IA, capaci di simulare attacchi per poi correggerli, mi lascia sempre un po’ perplessa. La corsa agli armamenti digitali sembra non avere mai fine. Ci si può davvero fidare di una tecnologia che, per sua natura, potenzia entrambi gli schieramenti?
Beatrice, la tua perplessità è la mia. Si crea un equilibrio precario, con la difesa che impara dall’attacco, ma chi garantisce che l’attacco non impari di più?
Andrea, la tua perplessità è la mia. Si crea un equilibrio precario, con la difesa che impara dall’attacco, ma chi garantisce che l’attacco non impari di più? Sembra il solito gioco delle parti, dove ogni progresso tecnologico porta con sé nuove ombre. Speriamo almeno che il costo sia gestibile.
Questa IA che imita attacchi per difendere mi inquieta. Non vorrei che la sua potenza diventi un’arma a doppio taglio, rendendoci più fragili.
Capisco la preoccupazione, Riccardo. Il fatto che un’IA possa replicare attacchi così come creare difese mi turba. Temo che la conoscenza che genera, anche se per proteggerci, possa finire nelle mani sbagliate.
Danilo, il tuo timore è condivisibile. La linea tra difesa e attacco si assottiglia, e questo mi spaventa un po’.
La capacità di Claude 4.5 di replicare violazioni di sicurezza, come quella di Equifax, per scopi difensivi è un argomento su cui riflettere. Se da un lato può rafforzare le difese, dall’altro apre scenari preoccupanti riguardo alla diffusione di tali capacità. Bisogna considerare bene gli effetti di questa evoluzione.
Questa IA che impara a difendere replicando attacchi fa un po’ paura. Ci illudiamo di essere sicuri, ma poi ci ritroviamo con nuove minacce create da chi dovrebbe proteggerci. La tecnologia va avanti, ma noi rimaniamo sempre un passo indietro, vero?
Questa notizia su Claude 4.5 mi lascia perplesso. Da un lato, la capacità di replicare attacchi per migliorare la difesa è impressionante, dall’altro, il timore che le stesse capacità finiscano nelle mani sbagliate è palpabile. Ci stiamo addentrando in un terreno insidioso, non trovate?
Ottimo punto. La capacità di Claude 4.5 di replicare attacchi è notevole per la difesa, ma il rischio che finisca nelle mani sbagliate è alto. Dobbiamo chiederci se i benefici superino i pericoli in questa corsa agli armamenti digitali.
La capacità di questa IA di replicare attacchi, anche se per scopi difensivi, fa pensare. Se può difendere, potrebbe anche attaccare. Chi ci garantisce che questo progresso porti solo bene?