OpenAI e Pentagono: l’accordo militare tra promesse di sicurezza e polemiche

Anita Innocenti

Le regole del digitale stanno cambiando.

O sei visibile o sei fuori. Noi ti aiutiamo a raggiungere i clienti giusti — quando ti stanno cercando.

Contattaci ora →

Tra clausole di sicurezza e competitor messi all’angolo, l’accordo solleva interrogativi sulle reali intenzioni e sui limiti etici dell’uso dell’IA in ambito militare

OpenAI ha siglato un controverso accordo con il Pentagono per fornire IA in ambito militare, approfittando del rifiuto della rivale Anthropic di rimuovere le sue clausole di sicurezza. Nonostante le rassicurazioni di Sam Altman, emergono dubbi e scappatoie legali che mettono in discussione le promesse etiche dell'azienda, costringendola a un rapido dietrofront sulle clausole del contratto.

OpenAI stringe la mano al Pentagono, ma a quale prezzo?

Sembra che OpenAI abbia deciso di giocare pesante, siglando un accordo di peso con il Dipartimento della Guerra americano per l’impiego di sistemi di intelligenza artificiale in contesti militari classificati.

A parole, tutto perfetto: l’amministratore delegato Sam Altman ha sottolineato che l’accordo prevede precise clausole di sicurezza per evitare usi, diciamo, “scomodi”.

Si parla del divieto di sorveglianza di massa interna, di restrizioni sull’uso di armi autonome e di tutele contro decisioni automatizzate ad alto rischio.

Come descritto sul sito ufficiale di OpenAI, l’azienda manterrà il pieno controllo sul suo “safety stack”, un sistema di controllo a più livelli, e l’IA verrà fornita solo tramite cloud, senza finire direttamente su droni o aerei.

Ma la vera domanda è: perché tutta questa fretta?

La risposta, come spesso accade, sta nel competitor che ha detto di no.

Lo scontro con Anthropic: la mossa che ha spianato la strada a OpenAI

Questo accordo non nasce dal nulla. Emerge, infatti, da un braccio di ferro piuttosto teso tra il Pentagono e Anthropic, la grande rivale di OpenAI fondata proprio da ex ricercatori fuoriusciti da quest’ultima per divergenze sulla sicurezza.

Anthropic si è rifiutata di rimuovere le protezioni che impedivano al suo modello Claude di essere usato per armi autonome e sorveglianza di massa, nonostante le pressioni dei militari che volevano un’IA disponibile per “tutti gli scopi leciti”.

La reazione del governo non si è fatta attendere: come riportato su Fortune, il presidente Trump ha ordinato a tutte le agenzie federali di interrompere l’uso della tecnologia di Anthropic, bollandola di fatto come un rischio per la catena di approvvigionamento.

In pratica, il governo ha messo Anthropic all’angolo. E OpenAI, fiutato l’affare, si è proposta come l’alternativa più “collaborativa”, chiudendo l’accordo in un lampo.

Tutto risolto, quindi?

Neanche per sogno.

Perché quando si leggono le clausole scritte in piccolo, le belle promesse iniziano a scricchiolare.

Promesse e dietrofront: quando la realtà bussa alla porta di Altman

Subito dopo l’annuncio, sono emerse le prime crepe. Diversi critici hanno fatto notare che il linguaggio del contratto, che fa riferimento a normative come l’Executive Order 12333, potrebbe di fatto permettere la sorveglianza di cittadini americani, a patto che i dati vengano raccolti fuori dai confini USA.

Una scappatoia non da poco, diciamocelo.

La difesa di OpenAI, affidata a una dichiarazione su LinkedIn, si è basata su un tecnicismo: l’architettura solo-cloud impedirebbe l’integrazione diretta con le armi.

Basta davvero a dormire sonni tranquilli?

A quanto pare no, visto che di fronte alle proteste pubbliche, lo stesso Altman ha dovuto fare un passo indietro. Come spiegato su TechCrunch, ha ammesso che l’accordo è stato “affrettato” e che “l’immagine non è delle migliori”, annunciando modifiche al contratto per includere esplicite tutele costituzionali.

La collaborazione tra i giganti dell’IA e la difesa sembra ormai una strada segnata.

Resta solo da capire chi, alla fine, traccerà i confini etici: le aziende che creano la tecnologia o chi la usa per scopi che possiamo solo intuire?

Anita Innocenti

Sono una copywriter appassionata di search marketing. Scrivo testi pensati per farsi trovare, ma soprattutto per farsi scegliere. Le parole sono il mio strumento per trasformare ricerche in risultati.

3 commenti su “OpenAI e Pentagono: l’accordo militare tra promesse di sicurezza e polemiche”

  1. Chiara Barbieri

    Il solito ciclo: l’etica come posizionamento iniziale, un bel vestito per farsi notare. Poi arrivano i contratti seri e il vestito si leva. La domanda è se qualcuno ci ha mai creduto davvero.

  2. Alessandro Parisi

    Abbandonare le chiacchiere etiche per un contratto con il Pentagono è la mossa più logica per chiunque voglia dominare il mercato, non un’eresia.

    1. Paola Montanari

      Alessandro Parisi, logica da manuale. L’etica era solo fuffa per l’immagine. Arrivano i big money e la maschera cade. Le loro rassicurazioni valgono zero. Adesso viene il bello, quando ci sorveglieranno con la nostra stessa tecnologia.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Ricevi i migliori aggiornamenti di settore