Scontro tra giganti dell’IA: OpenAI lancia GPT-5.4-Cyber, una sfida diretta al modello Mythos di Anthropic

Anita Innocenti

Le regole del digitale stanno cambiando.

O sei visibile o sei fuori. Noi ti aiutiamo a raggiungere i clienti giusti — quando ti stanno cercando.

Contattaci ora →

La contromossa di OpenAI con GPT-5.4-Cyber riaccende il dibattito sull’accesso agli strumenti di sicurezza informatica più avanzati, tra fiducia e timori di abusi

La recente mossa di OpenAI di lanciare GPT-5.4-Cyber con un modello di accesso fidato si contrappone direttamente alla decisione di Anthropic di limitare il suo potente modello Mythos. Questa divergenza strategica ha spaccato l'industria della cybersicurezza, sollevando un dibattito cruciale sulla democratizzazione degli strumenti di IA avanzati contro il rischio di un loro potenziale abuso.

La mossa di Anthropic che ha scosso il tavolo

Tutto è iniziato quando Anthropic, all’inizio di aprile, ha dichiarato che il suo nuovo modello, Mythos, è così bravo a scovare e sfruttare le vulnerabilità dei software da essere, di fatto, “troppo pericoloso da rilasciare“.

Una dichiarazione forte, che ha fatto drizzare le antenne a molti.

Invece di renderlo disponibile, hanno deciso di concederne l’accesso solo a un club esclusivo di grandi aziende tecnologiche.

La loro giustificazione?

Dare ai difensori un vantaggio di tempo prima che strumenti simili finiscano nelle mani sbagliate.

Come riportato da Axios, è la prima volta che un’azienda di IA adotta un approccio così restrittivo, ammettendo implicitamente di aver creato qualcosa che potrebbe sfuggirle di mano.

Ma questa cautela, a pensarci bene, solleva una domanda scomoda: è una mossa genuina per la sicurezza globale o una strategia per consolidare il potere nelle mani di pochi, creando di fatto un’élite della difesa informatica?

Mentre Anthropic chiudeva le porte, il suo principale concorrente preparava una contromossa completamente diversa.

La risposta di OpenAI: fiducia, non restrizioni

OpenAI, invece di nascondere i suoi strumenti più potenti, ha scelto una strada opposta. La loro filosofia sembra essere: non limitiamo la tecnologia, ma assicuriamoci che finisca nelle mani giuste. Con GPT-5.4-Cyber, hanno potenziato il loro programma Trusted Access for Cyber (TAC), un sistema basato su una rigorosa verifica dell’identità. Invece di un club esclusivo, l’accesso viene dato a migliaia di professionisti della sicurezza e centinaia di team aziendali che hanno dimostrato di essere “dei buoni”. Il modello stesso è stato potenziato con capacità di reverse engineering binario, permettendo di analizzare software compilato senza aver bisogno del codice sorgente, un bel vantaggio per chi cerca malware e falle nascoste.

Per evitare abusi, OpenAI ha implementato filtri di sicurezza, un sistema di sanificazione dei prompt e limiti di utilizzo più stringenti.

Sembra un approccio più democratico, ma anche qui il dubbio sorge spontaneo: un sistema di verifica, per quanto rigoroso, può davvero essere infallibile?

E chi decide chi è “degno di fiducia”?

La realtà è che OpenAI sta distribuendo un’arma potente, scommettendo sulla buona fede degli utenti.

Un’industria spaccata a metà: chi ha ragione?

Le due strategie, diametralmente opposte, hanno mandato in cortocircuito la comunità della cybersicurezza.

Da una parte, c’è chi applaude alla cautela di Anthropic. Spencer Whitman, di Gray Swan, ha sottolineato a Fortune che la vera svolta di Mythos è la sua capacità di automatizzare l’intero processo, dalla scoperta della vulnerabilità al test dell’exploit, un compito che fino a ieri richiedeva un lavoro enorme. Il fatto che alcune di queste falle siano rimaste nascoste per decenni dimostra quanto sia difficile trovarle.

Dall’altra parte, però, si levano voci molto critiche.

Jaya Baloo, CISO di AISLE, ha sostenuto durante un’intervista su Bloomberg Tech che la scelta di Anthropic, in realtà, danneggia i difensori. Secondo lei, molte delle vulnerabilità che Mythos è in grado di trovare possono essere scoperte anche da modelli open source già disponibili. Limitare l’accesso allo strumento più potente, quindi, non fa altro che allargare il divario tra le mega-corporation che possono permetterselo e tutte le altre aziende, che restano un passo indietro.

La questione, come ha fatto notare Jonathan Iwry della Wharton Accountable AI Lab, è ancora più profonda: “L’aspetto più preoccupante è quanto siamo dipendenti dal giudizio di una manciata di attori privati che non devono rispondere a nessuno”.

La domanda che tutti dovremmo farci è se sia giusto che decisioni con un impatto così globale vengano prese a porte chiuse, nelle sedi di due aziende in competizione tra loro.

Anita Innocenti

Sono una copywriter appassionata di search marketing. Scrivo testi pensati per farsi trovare, ma soprattutto per farsi scegliere. Le parole sono il mio strumento per trasformare ricerche in risultati.

2 commenti su “Scontro tra giganti dell’IA: OpenAI lancia GPT-5.4-Cyber, una sfida diretta al modello Mythos di Anthropic”

  1. Che tenerezza questo finto dibattito etico. “Accesso fidato” e “club esclusivo” sono solo etichette di marketing per la stessa arma digitale. La questione non è chi avrà gli strumenti, ma chi sarà la prima vittima quando verranno inevitabilmente usati contro di noi.

  2. È affascinante come si stia giocando una partita a scacchi con armi che nessuno sa maneggiare del tutto. La fiducia diventa una moneta di scambio decisa da chi ha forgiato la serratura. A volte mi domando se il pericolo non sia lo strumento, ma la mano che lo guida.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Ricevi i migliori aggiornamenti di settore