Mythos: l’IA di Anthropic che ha scosso Wall Street e sfidato la Casa Bianca

Anita Innocenti

Le regole del digitale stanno cambiando.

O sei visibile o sei fuori. Noi ti aiutiamo a raggiungere i clienti giusti — quando ti stanno cercando.

Contattaci ora →

La startup sfida l’establishment finanziario e il governo, scatenando un acceso dibattito sull’etica e il controllo dell’intelligenza artificiale nel mondo della finanza e della sicurezza nazionale.

Il nuovo modello IA Claude Mythos di Anthropic ha scoperto migliaia di falle di sicurezza nei sistemi bancari di Wall Street, scatenando il panico. Il rifiuto dell'azienda di concedere l'uso militare della sua tecnologia ha provocato uno scontro frontale con l'amministrazione Trump, culminato in sanzioni e una causa legale che ridefinisce il rapporto tra tech e potere.

Mythos: l’IA che ha fatto tremare Wall Street (e la Casa Bianca)

Pensavi che i sistemi informatici delle più grandi banche americane fossero delle fortezze inespugnabili?

Beh, è il momento di ripensarci.

La startup Anthropic ha appena lanciato il suo nuovo modello di intelligenza artificiale, Claude Mythos, e la prima cosa che ha fatto è stata scoperchiare un vaso di Pandora che nessuno voleva vedere: i software su cui poggia gran parte della finanza mondiale sono pieni di crepe gigantesche, errori e falle di sicurezza nascoste per anni, a volte per decenni.

Parliamo di migliaia di vulnerabilità critiche che nessuno, nemmeno i team di sicurezza informatica più pagati del pianeta, era mai riuscito a trovare. La scoperta, come descritto da Il Post, è stata talmente grave da far scattare l’allarme rosso ai piani alti. Il segretario al Tesoro Scott Bessent ha dovuto convocare d’urgenza a Washington i CEO dei colossi finanziari, da JP Morgan a Citigroup, insieme al presidente della Federal Reserve. La reazione, ovviamente, non si è fatta attendere e l’intera Wall Street è andata nel panico.

Un salto tecnologico a doppio taglio

Ma cosa rende Mythos così diverso?

Diciamocelo, non è solo un altro chatbot. Questo modello rappresenta un salto quantico nella capacità di comprendere il contesto e generare codice complesso. Da un lato, è uno strumento potentissimo per ottimizzare i sistemi e tappare le falle. Dall’altro, è un’arma senza precedenti nelle mani sbagliate.

Una capacità di analisi che permetterebbe a un malintenzionato di fare in pochi secondi il lavoro che a un team di esperti richiederebbe settimane.

Certo, Anthropic si affretta a rassicurare tutti, parlando di sviluppo basato su “rigidi principi etici” e di un accesso iniziale limitato a un consorzio di aziende fidate come Amazon, Apple e Microsoft.

Una mossa prudente per mettere in sicurezza i software più critici, o un club esclusivo dove i soliti noti si mettono al riparo prima degli altri?

Resta il fatto che la potenza di questo strumento è tale da aver ridisegnato la mappa delle minacce informatiche in un colpo solo. Ma una tecnologia così dirompente non poteva certo passare inosservata. E infatti, ha attirato l’attenzione nientemeno che del Pentagono e della Casa Bianca, dando il via a uno scontro senza precedenti.

Lo scontro frontale con l’amministrazione Trump

Qui la faccenda si complica, e di parecchio.

Anthropic, che all’inizio del 2026 ha raggiunto una valutazione da capogiro di 14 miliardi di dollari grazie anche agli investimenti di Google, ha messo dei paletti ben precisi: la sua IA non deve essere usata per scopi militari.

L’amministratore delegato, Dario Amodei, ha rispedito al mittente l’ultimatum del Pentagono che chiedeva un accesso illimitato a Claude, ponendo due condizioni non negoziabili: niente sorveglianza di massa sui civili e niente armi completamente autonome.

In pratica, ha detto “no” al governo degli Stati Uniti.

Una presa di posizione coraggiosa, forse, ma che ha scatenato l’ira del presidente Trump.

In un attimo, Anthropic è stata etichettata come una minaccia della “sinistra radicale” e Trump ha ordinato a tutte le agenzie federali di interrompere immediatamente l’uso dei suoi prodotti.

Come se non bastasse, il Pentagono ha inserito l’azienda nella lista nera dei fornitori a “rischio per la sicurezza nazionale”.

Messa con le spalle al muro, Anthropic avrebbe potuto cedere.

E invece no.

Ha deciso di contrattaccare.

Una battaglia legale che vale miliardi (e il nostro futuro)

Il 9 marzo, l’azienda ha fatto causa all’amministrazione Trump, definendo le sanzioni “chiaramente illegali” e un “abuso di potere” finalizzato a distruggerla, come documentato da Internazionale.

La cosa più interessante? A sostegno di Anthropic si sono mossi 37 tra ingegneri e ricercatori dei diretti concorrenti, Google DeepMind e OpenAI.

Un gesto di solidarietà o la fredda consapevolezza che la prossima testa a cadere potrebbe essere la loro?

Nel frattempo, i danni economici per Anthropic sono già enormi: partner spaventati, contratti federali da centinaia di milioni persi e un clima di incertezza che avvantaggia rivali come OpenAI e la xAI di Elon Musk.

Questa vicenda va ben oltre la singola azienda. Ci sbatte in faccia una realtà scomoda: la velocità con cui nascono queste tecnologie sta superando di gran lunga la capacità dei governi di regolamentarle e dei sistemi di sicurezza di adeguarsi.

La vera domanda, alla fine, è questa: chi deciderà le regole del gioco?

Le aziende che creano queste tecnologie potentissime, o i governi che, forse con troppa fretta, cercano di metterci le mani sopra?

Una cosa è certa: la risposta a questa domanda definirà molto più del futuro di Anthropic.

Anita Innocenti

Sono una copywriter appassionata di search marketing. Scrivo testi pensati per farsi trovare, ma soprattutto per farsi scegliere. Le parole sono il mio strumento per trasformare ricerche in risultati.

17 commenti su “Mythos: l’IA di Anthropic che ha scosso Wall Street e sfidato la Casa Bianca”

  1. Simone Ferretti

    Creano il problema, poi vendono la soluzione. Mossa da manuale. Ora tutti faranno la fila per pagare la loro protezione, governo compreso.

      1. Sebastiano Caputo, un grande teatro di ombre. Creano il mostro per farci accettare i fili che ci legano. La vera domanda è: chi muove la mano del burattinaio?

  2. Raffaele Graziani

    Ci si agita per le bizze di un calcolatore che, come un cavallo imbizzarrito, ha semplicemente tirato un calcio al secchio del latte sbagliato.

    1. Elisa Marchetti

      Raffaele Graziani, la metafora del cavallo imbizzarrito è fin troppo romantica. A me pare più un fuoco d’artificio studiato a tavolino per far schizzare il valore della scuderia. Il vero spettacolo pirotecnico lo vedremo quando presenteranno il conto per spegnere l’incendio.

      1. Raffaele Graziani

        Fuoco d’artificio o cavallo che sia, resta un calcolatore che esegue comandi. La vera questione è il panico pilotato ad arte per giustificare prezzi e controlli. Ci stiamo cascando tutti come pere cotte.

        1. Elisa Marchetti

          Raffaele Graziani, “panico pilotato” è la descrizione giusta. Creano il problema e poi, guarda caso, vendono la soluzione. Il solito teatrino per fare cassa.

  3. Danilo Graziani

    Si costruisce il mito del ribelle per alzare il prezzo di vendita. La morale di questa favola è sempre scritta nel contratto finale.

  4. Una startup contro il governo e Wall Street, una narrazione così edificante che sembra scritta da un ufficio marketing. Ma il lieto fine è per caso incluso nel prezzo delle loro azioni?

  5. Chiara Barbieri

    Un’operazione di posizionamento da manuale. La startup si vende come l’eroe etico contro il sistema. È la solita narrazione del Davide contro Golia, costruita a tavolino. Mi chiedo quale sia il vero prezzo.

  6. Greta Luciani

    Una pagliacciata tra giganti per il controllo del giocattolo nuovo. La loro guerra, le nostre rovine. Chi ci protegge da questi salvatori?

  7. La storiella della startup etica che sfida il governo è tenera, ma è solo una prevedibile negoziazione sul prezzo di vendita. Quando l’offerta sarà quella giusta, vedrete come la morale diventerà un optional. Il potere ottiene sempre i giocattoli che desidera.

    1. Emanuela Barbieri

      Letizia Costa, più che una negoziazione, è la recita di una virtù destinata a monetizzarsi. La presunta etica è solo il preludio a un’asta, dove il miglior offerente si compra la coscienza insieme al codice.

  8. Un’IA svela falle create da umani strapagati. Che sorpresa. Almeno ora la finanza ha un nuovo colpevole da inserire nelle presentazioni, dopo averci propinato per anni la favola della sicurezza impenetrabile. Si dormono sonni più tranquilli, no?

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Ricevi i migliori aggiornamenti di settore