Le regole del digitale stanno cambiando.
O sei visibile o sei fuori. Noi ti aiutiamo a raggiungere i clienti giusti — quando ti stanno cercando.
Contattaci ora →
Anthropic sotto pressione: rifiuta di cedere il controllo su Claude e rischia sanzioni, mentre il Pentagono cerca alternative per non restare indietro nella corsa all’IA militare
La tensione tra Pentagono e Anthropic esplode con un ultimatum sul controllo dell'IA militare Claude. In una posizione di inaspettata dipendenza, il Dipartimento della Difesa minaccia sanzioni. La startup resiste per principi etici, aprendo la porta a concorrenti come xAI e mettendo in discussione il futuro rapporto tra tecnologia e sicurezza nazionale.
Pentagono-Anthropic: scontro frontale sull’IA militare
Il Pentagono ha messo Anthropic, la startup di intelligenza artificiale, con le spalle al muro.
Sul tavolo c’è un ultimatum che sa di resa dei conti: o l’azienda cede il controllo sulle “barriere di sicurezza” del suo modello IA, Claude, entro venerdì sera, oppure si prepari ad affrontare conseguenze pesantissime, che vanno da sanzioni federali a restrizioni sulla catena di fornitura.
In pratica, il messaggio del Segretario alla Difesa Pete Hegseth, durante un incontro tutt’altro che amichevole, è stato cristallino: o Anthropic si piega, o rischia di essere trattata alla stregua di un avversario straniero, come riportato da TechCrunch.
Una mossa che mette in gioco non solo contratti militari per circa 200 milioni di dollari, ma il futuro stesso del rapporto tra etica dell’IA e sicurezza nazionale.
Ma cosa spinge una startup, per quanto quotata, a tenere testa al Dipartimento della Difesa americano?
La risposta sta in due paletti che Anthropic considera invalicabili: il rifiuto di permettere a Claude di essere usato per sistemi d’arma autonomi e per la sorveglianza di massa dei cittadini americani.
Sebbene l’azienda affermi che le conversazioni per trovare un punto d’incontro stiano continuando, la tensione è palpabile.
Il Pentagono, dal canto suo, non sembra disposto a sentire ragioni, spinto da una fretta quasi febbrile di integrare l’IA nelle sue operazioni per non perdere terreno con la Cina.
La dipendenza del Pentagono: una vulnerabilità inaspettata
E qui la faccenda si fa interessante, perché questa aggressività nasconde una debolezza strategica non da poco. Al momento, Claude è l’unico modello di intelligenza artificiale avanzata operativo all’interno dei sistemi classificati del Pentagono.
Questo crea una dipendenza totale da un singolo fornitore, una situazione che viola persino un memorandum sulla sicurezza nazionale emesso dall’amministrazione Biden. In parole povere, se Anthropic decidesse di staccare la spina domani, per il Dipartimento della Difesa sarebbe un problema enorme.
Un alto funzionario del Pentagono ha confidato ad Axios che la minaccia di tagliare i ponti e di incoraggiare i partner di Anthropic a fare lo stesso è assolutamente seria:
“We dead serious”, hanno detto.
Questa situazione di stallo, però, non è un fulmine a ciel sereno. Le tensioni covavano da tempo, in parte a causa delle preoccupazioni espresse da Anthropic, tramite il suo partner Palantir, riguardo all’uso di Claude in un’operazione di gennaio per catturare l’ex presidente venezuelano Nicolás Maduro.
Anthropic ha poi ridimensionato la questione, parlando di semplici “domande sulla policy di utilizzo”, ma è chiaro che la crepa si era già formata. E mentre Anthropic resiste, altri giganti della Silicon Valley sembrano più che disposti a scendere a patti, fiutando un’opportunità colossale.
La corsa all’oro militare: chi è pronto a sostituire Anthropic?
La disputa sta già ridisegnando gli equilibri di potere. Modelli come ChatGPT di OpenAI e Gemini di Google operano già nei sistemi non classificati del Pentagono, avendo rimosso le loro barriere standard.
Ma è xAI di Elon Musk a posizionarsi come l’alternativa più allettante e, diciamocelo, spregiudicata. L’azienda avrebbe infatti accettato di concedere “qualsiasi uso legale” del suo modello a qualsiasi livello di classificazione, diventando di fatto il candidato ideale a rimpiazzare Anthropic qualora quest’ultima dovesse cadere in disgrazia.
Una mossa che solleva interrogativi non da poco: stiamo assistendo a una svendita dei principi etici in nome di lucrosi contratti governativi?
Il confronto ricorda da vicino la crisi del Progetto Maven di Google nel 2018, quando migliaia di dipendenti protestarono fino a costringere l’azienda a ritirarsi da un progetto di analisi di droni tramite IA.
La domanda ora è se anche altre aziende della Silicon Valley dovranno affrontare simili rivolte interne se costrette ad abbandonare le proprie policy di sicurezza.
La scadenza di venerdì non deciderà solo il destino di un’azienda, ma potrebbe tracciare una linea invalicabile per il futuro dell’intelligenza artificiale, costringendo l’industria a scegliere se la sicurezza nazionale debba necessariamente prevalere su ogni considerazione etica.
