Le regole del digitale stanno cambiando.
O sei visibile o sei fuori. Noi ti aiutiamo a raggiungere i clienti giusti — quando ti stanno cercando.
Contattaci ora →
Braccio di ferro tra il Pentagono e Anthropic sull’IA: il CEO Dario Amodei rifiuta di rimuovere le protezioni etiche, anche a costo di sfidare il Dipartimento della Guerra.
È braccio di ferro tra il Pentagono e Anthropic. Il dipartimento della Difesa USA chiede di rimuovere i limiti etici all'IA Claude per usi militari, ma il CEO Dario Amodei oppone un netto rifiuto per una questione di coscienza. Al centro del contendere ci sono i rischi legati alla sorveglianza di massa e alle armi autonome, una presa di posizione che potrebbe costare caro all'azienda.
Il Pentagono sbatte i pugni, ma Anthropic non ci sta
C’è un braccio di ferro in corso, e non è roba da poco. Da una parte abbiamo il Pentagono, il cuore della difesa americana. Dall’altra, Dario Amodei, CEO di Anthropic, una delle aziende di intelligenza artificiale più in vista del momento.
La richiesta del Dipartimento della Guerra è stata secca: rimuovere le barriere di sicurezza dal modello AI Claude per consentirne “qualsiasi uso legittimo”. La risposta di Amodei è stata altrettanto netta: un no categorico, motivato da una questione di coscienza, anche a costo di perdere contratti militari milionari o, peggio, di essere etichettato come un “rischio per la catena di approvvigionamento”, un’etichetta finora riservata agli avversari stranieri.
La tensione è palpabile, perché qui non si parla solo di affari, ma di principi etici che si scontrano con le esigenze della sicurezza nazionale. Il Pentagono ha minacciato di usare il Defense Production Act, una legge che di fatto obbligherebbe l’azienda a obbedire.
Sorveglianza di massa e armi autonome: i paletti che nessuno vuole toccare
Ma quali sono questi “paletti” che Anthropic si rifiuta di rimuovere?
Amodei è stato molto chiaro: si tratta di due ambiti specifici, la sorveglianza di massa sul suolo americano e le armi completamente autonome. Sul primo punto, il ragionamento è semplice: un conto è usare l’IA per l’intelligence all’estero, un altro è puntarla sui propri cittadini.
Oggi il governo può già acquistare legalmente dati sui nostri spostamenti e sulla nostra navigazione web senza bisogno di un mandato. Un’IA potente, spiega Amodei, può assemblare questi dati sparsi e apparentemente innocui per creare un profilo dettagliato della vita di chiunque, in automatico e su larga scala.
Un’idea che, francamente, fa venire i brividi.
Il secondo punto riguarda le armi autonome, quelle che decidono di colpire un bersaglio senza alcun intervento umano. Pur riconoscendo l’importanza dei sistemi parzialmente autonomi, come quelli visti in Ucraina, Amodei è stato chiaro: la tecnologia attuale non è abbastanza affidabile per delegare a una macchina una decisione di vita o di morte.
Ha persino offerto al Pentagono una collaborazione per migliorare la ricerca in questo campo, ma si è visto chiudere la porta in faccia.
E la risposta del Pentagono?
Un secco no.
Chi è Dario Amodei? un idealista con le spalle al muro
Questa presa di posizione non nasce dal nulla. Dario Amodei, ricercatore italo-americano, ha lasciato OpenAI nel 2020 proprio perché riteneva che l’azienda non stesse dando abbastanza peso alla sicurezza. Ha fondato Anthropic con una missione precisa: creare sistemi di IA sicuri e controllabili, come ribadisce la loro Costituzione.
Le sue recenti uscite pubbliche non lasciano spazio a dubbi: in un saggio intitolato “L’adolescenza della tecnologia”, ha avvertito che l’umanità sta per ricevere un potere inimmaginabile senza avere la maturità per gestirlo. Ha parlato di uno “tsunami di IA in arrivo” per cui siamo pericolosamente impreparati.
Eppure, anche un idealista deve fare i conti con la realtà.
In una recente intervista a Fortune, ha ammesso che la pressione per sopravvivere economicamente mantenendo i propri valori è “incredibile”.
Questa non è una crociata contro il Dipartimento della Difesa. Anzi, Amodei ha sottolineato come Anthropic abbia già fatto sacrifici importanti per la sicurezza nazionale, rinunciando a centinaia di milioni di dollari pur di tagliare i ponti con aziende legate al Partito Comunista Cinese.
La contraddizione, come fa notare lo stesso Amodei, è palese: da un lato il Pentagono etichetta Anthropic come un rischio per la sicurezza, dall’altro considera la sua tecnologia essenziale. Una situazione paradossale, che mette in luce tutte le difficoltà di regolare una tecnologia che corre più veloce delle leggi e della nostra stessa capacità di comprenderla.

Mi terrorizza non la messinscena, ma la richiesta. Il Pentagono vuole un’IA senza coscienza per scopi militari. Il “no” di oggi è fragile. Quando un’azienda meno scrupolosa dirà “sì” per profitto, sarà troppo tardi per tutti.
Un bel racconto per il pubblico. David contro Golia, versione Silicon Valley. Mi domando dove traccio io la mia linea rossa ogni giorno.
Un teatrino ben recitato. Amodei il paladino, il Pentagono il cattivo. Ma chi tira i fili di questi burattini? La coscienza è un lusso o solo una maschera per il pubblico? Mi sfugge il vero disegno dietro le quinte.
Isabella, il disegno è banale: si costruisce un brand “etico” per vendere meglio a tutti gli altri. La coscienza è una leva di marketing, il Pentagono un perfetto testimonial negativo. Il vero obiettivo è solo la quotazione.
Questo non è idealismo. È una mossa di marketing calcolata. Amodei pianta una bandiera etica per posizionare il brand. Il vero campo di battaglia è il mercato, non la coscienza.
Bello il teatrino della coscienza. Il Pentagono troverà un altro fornitore, è ovvio. Il risultato non cambia: armi autonome fuori controllo. Io che lavoro nel turismo non so che pensare. Che pacchetti vacanze vendo, per i bunker?
La coscienza è un argine di sabbia contro l’oceano del potere. Un gesto elegante, destinato a svanire. Ammiro la forma del castello, prima che l’onda arrivi.
Signor Benedetti, quel castello serve solo ad essere fotografato prima del crollo. Pubblicità ben riuscita. Quale sarà il prezzo di questa nobile messa in scena?
Continuano a menarla con la coscienza di Amodei, quando il punto è che stanno proprio creando certi strumenti. Che lui si opponga o meno, il finale della fiera mi pare già scritto per tutti quanti.
Mi sembra che questo Amodei stia provando a giocare a scacchi contro una ruspa; la mossa etica è una bella vetrina, ma non riesco a capire quale sia il guadagno finale.
Il dibattito sui motivi di Amodei è un diversivo. Il dato agghiacciante è uno: il Pentagono ha chiesto IA senza freni etici. La domanda esiste. È stata formulata. Questa consapevolezza mi gela. Qualcuno si sente più sicuro ora?
Chiara Barbieri, la tua osservazione mi spiazza, perché non riesco a capire se sia più assurda la richiesta del Pentagono o l’idea che qualcuno potesse accettarla. Seriamente, che film si sono visti?
Il solito dramma dell’eroe solitario contro il sistema, ma la verità è che si sta solo facendo da parte per lasciare il posto a chi ha meno scrupoli. Che mossa geniale.
Un uomo solo contro la macchina da guerra. Un fiore di campo che cerca di fermare un’autostrada. La coscienza è solo un piccolo inciampo.
Alessio De Santis, ma quale fiore di campo, dai. Qui non si parla di coscienza, è una questione di responsabilità del produttore. Amodei ha sgamato che vendere un’IA senza paletti è una mossa stupida che gli si ritorcerebbe contro. Non è mica un dilettante.
Stanno togliendo la rete di sicurezza dal trapezio prima ancora di iniziare lo spettacolo.