Le regole del digitale stanno cambiando.
O sei visibile o sei fuori. Noi ti aiutiamo a raggiungere i clienti giusti — quando ti stanno cercando.
Contattaci ora →
Scontro tra Anthropic e Pentagono: il gigante dell’IA sfida la designazione di “rischio per la catena di approvvigionamento” e i limiti imposti all’uso militare della sua tecnologia.
Anthropic, guidata dal CEO Dario Amodei, ha citato in giudizio il Pentagono. La causa nasce dalla designazione dell'azienda come 'rischio per la supply chain', una mossa ritorsiva dopo il rifiuto di Anthropic di rimuovere i limiti etici sull'uso del suo modello IA, Claude, per la sorveglianza di massa e le armi autonome. Una battaglia legale senza precedenti.
Il cuore della disputa: due paletti invalicabili
Al centro di tutto ci sono due limiti che Anthropic ha messo nero su bianco e che non intende rimuovere dalla sua policy: il divieto di usare Claude per la sorveglianza di massa dei cittadini americani e per i sistemi d’arma completamente autonomi, quelli capaci di scegliere e colpire un bersaglio senza alcun intervento umano.
Principi etici, potremmo dire.
Il Pentagono, però, la vede diversamente e ha chiesto “carta bianca” per tutti gli “scopi legittimi”.
Di fronte al rifiuto di Anthropic di cedere entro la scadenza del 27 febbraio, la reazione è stata durissima: stop all’uso della tecnologia e la famigerata etichetta di rischio.
Ma Anthropic, a quanto pare, non ha la minima intenzione di fare un passo indietro.
Anzi, ha deciso di passare al contrattacco.
Una battaglia legale che puzza di pretesto
Dario Amodei non ha usato mezzi termini definendo la decisione del Pentagono “legalmente infondata”. L’argomentazione è semplice: la legge sulla sicurezza della supply chain serve a proteggere il governo da rischi concreti come sabotaggi o backdoor nei sistemi informatici, non a punire un’azienda per una divergenza di opinioni sulle policy di utilizzo.
“La legge impone di usare i mezzi meno restrittivi necessari per proteggere la catena di approvvigionamento”, ha sottolineato Amodei, come riportato su TechCrunch.
Viene da chiedersi: è una vera questione di sicurezza o un modo per piegare un fornitore che non si allinea al volere del committente più potente del mondo?
E a quanto pare, non è l’unico a pensarla così. Anche diversi esperti legali e funzionari della difesa stanno storcendo il naso.
L’onda d’urto su appaltatori e futuro dell’IA militare
La questione è tutt’altro che una semplice diatriba legale. Secondo Anthony Kuhn, avvocato intervistato da Defense One, il Pentagono farebbe fatica a dimostrare un rischio reale, visto che la legge in questione riguarda minacce tecniche, non disaccordi politici. Un funzionario anonimo della difesa ha rincarato la dose, definendo la mossa “ideologicamente motivata” e confermando che “non ci sono prove di un rischio per la supply-chain“.
Il problema, però, è che questa etichetta ha conseguenze pesantissime. Tutti gli appaltatori che lavorano con la Difesa sarebbero costretti a rinunciare ai prodotti di Anthropic, creando un effetto a catena devastante.
Ma la domanda di fondo è un’altra, ed è molto più grande.
Chi decide i limiti etici dell’intelligenza artificiale in campo militare?
Un’azienda privata può davvero dire di no al Dipartimento della Difesa americano, imponendo i propri principi?
La sfida legale di Anthropic non è solo una difesa dei propri interessi commerciali. È un precedente che potrebbe definire i rapporti di forza tra il governo e le aziende tecnologiche per i decenni a venire.
La sentenza, qualunque essa sia, non riguarderà solo Anthropic. Potrebbe tracciare una linea netta su quanto potere le Big Tech avranno nel definire il futuro, anche quando si parla di sicurezza nazionale.
E questa è una partita che riguarda tutti noi.

Una manovra di marketing ben orchestrata, dove i principi etici diventano la leva per negoziare fette di mercato più ampie. La moralità è solo un altro A/B test per loro.
Nicola Caprioli, l’etica come leva di mercato. Un paradosso magnificamente moderno.
Un’ammirevole messa in scena sull’integrità morale, orchestrata da un’azienda contro il suo cliente più promettente; chissà quale sarà la prima vittima designata dalla loro sorveglianza eticamente certificata, una volta siglato l’inevitabile accordo.
Queste non sono dispute etiche, sono i nuovi titani che sfidano i vecchi poteri per le tavole della legge del futuro. La vera questione non è chi ha ragione, ma chi forgerà le catene o le ali di questa nascente intelligenza.
Una sceneggiata per vendere etica in pillole. Il Pentagono fa il mostro, Anthropic l’eroe. Ma il copione lo hanno scritto insieme per alzare il prezzo del biglietto.
Discutono delle regole d’ingaggio per una tempesta che hanno già scatenato, come se un ombrello di carta potesse fermare un uragano. L’illusione del controllo è ciò che mi terrorizza di più, perché ci fa sentire al sicuro mentre la nave affonda.
Vi prego di non allarmarvi, è solo una nobile disputa etica per proteggerci. Nel frattempo, chi non ha tali remore fornisce già le sue tecnologie a chiunque. La mia fiducia nell’umanità resta, come sempre, incrollabile.
Un teatrino etico per negoziare un contratto migliore e vendere poi la versione “con supervisione”. I buoni principi finiscono sempre dove iniziano i soldi.
Letizia Costa, un cavallo di Troia vestito di etica. Mi chiedo quale sia il prezzo.
Una splendida operazione di marketing mascherata da scrupolo etico. Chi progetta l’interfaccia di vendita?
Questa disputa legale, presentata come una difesa di principi, è una formidabile campagna pubblicitaria. La morale, del resto, è un lusso concesso a chi ha già pianificato la propria ascesa, non trovate anche voi?
Marketing o no, la questione è un’altra. Mettono paletti finti per farci dormire sonni tranquilli. Penso a cosa potremmo costruire senza queste zavorre. A un potere senza filtri.
Enrico, ‘potere senza filtri’ è un bel concept. L’IA deciderà in autonomia chi fa il caffè e chi diventa compost. Questa finta etica è solo un freno a mano tirato per non correre troppo.
Riccardo, più che un freno, mi sembra un sonnifero per la nostra coscienza. Ci addormentiamo cullati dall’etica di facciata, mentre il sogno della macchina diventa la nostra unica realtà. E se poi non ci svegliassimo più da questo torpore autoindotto?
Un’azienda di IA che fa la morale al Pentagono è un’ottima mossa di marketing. I principi etici sono i nuovi KPI per la brand reputation.