Il paradosso di Anthropic: come l’IA ‘sicura’ Claude Mythos è finita nelle mani sbagliate

Anita Innocenti

Le regole del digitale stanno cambiando.

O sei visibile o sei fuori. Noi ti aiutiamo a raggiungere i clienti giusti — quando ti stanno cercando.

Contattaci ora →

Il suo modello di punta Claude Mythos, un potente strumento per la cyberguerra tenuto segreto, è stato esposto attraverso la rete di un fornitore terzo, sollevando interrogativi sulla sua strategia di sicurezza e sulla sua evoluzione.

L'incidente di Claude Mythos mette a nudo le contraddizioni di Anthropic. L'azienda, nata per un'IA sicura, ha visto il suo modello per la cyberguerra finire in mani non autorizzate a causa di una falla esterna. L'episodio non è solo un danno tecnico, ma il sintomo di una filosofia aziendale che forse sta sacrificando la cautela sull'altare del business.

Il “giocattolo” segreto di Anthropic finisce online

Diciamocelo, la dinamica sembra la trama di un film.

Un gruppo di utenti, riunito su un forum privato su Discord, è riuscito a mettere le mani su Mythos, come descritto da Bloomberg, non attaccando direttamente i sistemi di Anthropic, ma passando da una via laterale: l’infrastruttura di un fornitore terzo.

L’azienda ha subito avviato un’indagine, affermando che non ci sono prove di un impatto sui loro sistemi centrali, ma il danno d’immagine è fatto.

Si tratta di una falla nella catena di fornitura, uno di quei punti deboli che spesso vengono sottovalutati ma che, come vedi, possono aprire porte che dovrebbero rimanere blindate.

Ma il punto non è tanto come ci sono riusciti, quanto a cosa hanno messo le mani.

E qui la faccenda si fa seria, perché Mythos non è la solita intelligenza artificiale per scrivere email o creare immagini.

Un’arma a doppio taglio, per scelta

Mythos è uno strumento pensato per la cyberguerra, capace di scovare le debolezze nei sistemi informatici con una precisione spaventosa.

La stessa Anthropic ha avvisato il governo USA che un modello del genere potrebbe rendere gli attacchi informatici su larga scala molto più efficaci entro il 2026.

La strategia dell’azienda?

Distribuirlo in anteprima a un club esclusivo di colossi — Amazon, Apple, JP Morgan, per citarne alcuni — con l’idea di permettere ai “buoni” di preparare le difese prima che i “cattivi” imparino ad attaccare.

Una logica che, sulla carta, potrebbe anche funzionare.

Peccato che dare un’arma, anche se solo a pochi “amici”, non impedisce che questa possa finire nelle mani sbagliate.

Ed è esattamente quello che è successo.

Questa strategia, che a prima vista potrebbe apparire sensata, nasconde un problema ben più grande, che va a colpire direttamente il cuore della filosofia di Anthropic.

La sicurezza prima di tutto? Forse non più

Per capire come siamo arrivati qui, bisogna guardare in casa Anthropic. Nata come l’alternativa “etica” e “responsabile” nel mondo dell’IA, con la promessa di non rilasciare modelli senza adeguate misure di sicurezza, sembra aver cambiato rotta.

L’azienda ha modificato la sua Responsible Scaling Policy, ovvero il suo stesso regolamento interno sulla crescita responsabile. Secondo alcuni osservatori critici, la pressione della concorrenza e la fretta di arrivare sul mercato avrebbero spinto l’azienda a sacrificare i suoi principi fondanti.

La sicurezza prima di tutto, certo, ma forse solo finché non rallenta troppo il business.

Questo incidente, quindi, non è solo una falla tecnica, ma appare come il sintomo di una contraddizione interna sempre più evidente: quella tra le promesse di cautela e la dura realtà di un mercato che non aspetta nessuno.

Anita Innocenti

Sono una copywriter appassionata di search marketing. Scrivo testi pensati per farsi trovare, ma soprattutto per farsi scegliere. Le parole sono il mio strumento per trasformare ricerche in risultati.

9 commenti su “Il paradosso di Anthropic: come l’IA ‘sicura’ Claude Mythos è finita nelle mani sbagliate”

  1. Massimo Martino

    Il re è nudo e il suo giocattolo nuovo è per tutti. Un’arma che diventa intrattenimento. Mi immagino questi geni, a contemplare il loro riflesso in uno schermo nero. Un capolavoro di narcisismo digitale.

  2. Uno strumento per la guerra digitale è stato diffuso. Questa notizia mi genera una profonda inquietudine. Se hanno fallito con questo, quali garanzie abbiamo per il futuro?

  3. Chiamarlo paradosso è un eufemismo per non ammettere che il re è nudo. Costruiscono una cassaforte e nel frattempo vendono grimaldelli. La sicurezza è solo la foglia di fico per mascherare la loro vera natura: mercanti d’armi digitali. Siete tutti così sorpresi?

    1. Greta Luciani

      @Greta Barone Sorpresi? Io no. L’hanno chiamato incidente per non chiamarlo demo. Un’arma segreta è solo un soprammobile costoso. Ora tutti sanno cosa possono comprare e a quale prezzo.

  4. Si dipingono come pompieri, ma sono piromani con la coscienza pulita. La falla non è la porta aperta, è proprio la stanza segreta che nascondevano.

  5. Renato Graziani

    Dichiarano di volere un’IA sicura, poi sviluppano strumenti di cyberguerra. La vera falla non è nel fornitore, ma nella coerenza. Quale visione del futuro stanno costruendo?

    1. Sara Benedetti

      Renato, la coerenza è il primo sacrificio sull’altare del profitto. Sbandierare la sicurezza mentre si forgiano armi digitali è un paradosso solo per chi crede ancora alle favole della Silicon Valley. Alla fine, la realtà presenta sempre il conto.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Ricevi i migliori aggiornamenti di settore