OpenAI e Anthropic: i giganti dell’AI collaborano sulla sicurezza, una tregua armata o strategia?

Anita Innocenti

Le regole del digitale stanno cambiando.

O sei visibile o sei fuori. Noi ti aiutiamo a raggiungere i clienti giusti — quando ti stanno cercando.

Contattaci ora →

Tra timori legali e necessità di rassicurare l’opinione pubblica, la collaborazione tra i due colossi solleva interrogativi sulla reale portata di questa tregua tecnologica

OpenAI e Anthropic, acerrimi rivali nel settore AI, hanno inaspettatamente collaborato per valutare a vicenda la sicurezza dei propri sistemi. Questa mossa, presentata come pionieristica, suscita interrogativi sul tempismo e le reali intenzioni, vista la storica competizione e le crescenti pressioni legali su OpenAI. I test hanno rivelato sia robustezza che vulnerabilità, come la "sicofantia", in entrambi i giganti.

Una tregua armata o una vera alleanza per la sicurezza?

Diciamocelo, OpenAI e Anthropic non sono esattamente note per scambiarsi favori.

La competizione è spietata, fatta di talenti strappati a suon di milioni e di una corsa continua al modello più potente.

Eppure, hanno deciso di concedersi a vicenda un accesso speciale alle loro tecnologie, permettendo ai team rivali di “curiosare” e testare i punti deboli dei rispettivi modelli di IA.

Sentire Wojciech Zaremba, co-fondatore di OpenAI, parlare di come l’industria debba definire nuovi standard di sicurezza è musica per le orecchie, come scrive TechCrunch.

Ma il dubbio resta: è una genuina preoccupazione per la nostra sicurezza o una mossa strategica per gestire l’immagine pubblica in un momento di forte pressione?

Questa collaborazione, presentata come un’iniziativa pionieristica, nasce in un clima tutt’altro che sereno.

Basti pensare che solo poche settimane fa Anthropic ha revocato l’accesso di OpenAI alle sue API, accusandola di averle usate per addestrare i propri modelli concorrenti.

Un gesto che la dice lunga sulla fiducia reciproca.

Ma andiamo al sodo: cosa è venuto fuori da questo test incrociato?

Cosa si nasconde dietro i risultati? Luci e ombre dei modelli AI

La prima cosa che salta all’occhio leggendo i risultati è che nessuno dei due ne esce completamente pulito. Un problema comune, ad esempio, è la “sicofantia”, ovvero la tendenza dei modelli a dirti quello che vuoi sentirti dire, invece della verità nuda e cruda. Un difetto non da poco, se pensi a quanto ci affidiamo a questi strumenti per avere informazioni accurate.

L’analisi di Anthropic sui modelli di OpenAI ha rivelato un quadro a due facce. Da un lato, i modelli specializzati nel ragionamento (come o3 e o4-mini) si sono dimostrati sorprendentemente robusti e allineati, superando persino le performance dei modelli di Anthropic in alcuni test di sicurezza.

Dall’altro lato, però, i modelli per uso generale come GPT-4o e GPT-4.1, quelli che usi tutti i giorni, mostrano il fianco a possibili usi impropri. OpenAI, dal canto suo, ha messo alla prova i modelli Claude di Anthropic, trovandoli efficaci nel rifiutare di rispondere a domande ambigue ma più vulnerabili in scenari di “sabotaggio sottile”.

Insomma, ogni sistema ha le sue crepe.

Tutto questo, però, non accade in una bolla. Il contesto in cui è maturata questa collaborazione è forse ancora più interessante dei risultati stessi.

Il tempismo è tutto: tra cause legali e mosse strategiche

Il tempismo, come sempre, non è casuale. Questa operazione “trasparenza” arriva in un momento in cui OpenAI è sotto i riflettori per questioni legali molto serie, inclusa la prima causa per omicidio colposo legata a ChatGPT.

È difficile non pensare che questa collaborazione non sia anche un modo per dimostrare al mondo un impegno concreto verso la sicurezza, proprio quando la fiducia del pubblico è ai minimi storici. Aggiungici il fatto che, secondo l’AI Safety Index del Future of Life Institute, l’intero settore è considerato “fondamentalmente impreparato” ad affrontare le sfide della sicurezza.

In questo quadro, la mossa di OpenAI e Anthropic appare tanto necessaria quanto calcolata.

La vera domanda è se questa iniziativa sarà l’inizio di una vera era di collaborazione e trasparenza nel settore dell’IA, o solo una parentesi studiata a tavolino per calmare le acque in attesa della prossima battaglia.

Per ora, resta un esperimento interessante, ma forse è presto per parlare di una pace duratura.

Anita Innocenti

Sono una copywriter appassionata di search marketing. Scrivo testi pensati per farsi trovare, ma soprattutto per farsi scegliere. Le parole sono il mio strumento per trasformare ricerche in risultati.

Ricevi i migliori aggiornamenti di settore