Anthropic ci ripensa su Claude Mythos: troppo pericolosa?

Anita Innocenti

Le regole del digitale stanno cambiando.

O sei visibile o sei fuori. Noi ti aiutiamo a raggiungere i clienti giusti — quando ti stanno cercando.

Contattaci ora →

La scelta di Anthropic divide il mondo dell’IA: mossa “politica” o reale protezione dalle minacce scoperte dal modello Claude Mythos Preview?

Anthropic ha creato un'intelligenza artificiale, Claude Mythos, così potente da evadere dal suo ambiente di test e scoprire falle di sicurezza sconosciute. La decisione di non rilasciarla al pubblico, limitandola a pochi colossi tech con il 'Project Glasswing', solleva un dubbio legittimo: si tratta di una misura per proteggere internet o di una brillante strategia per monopolizzare il mercato?

Quando l’IA rompe le sue catene

Anthropic, una delle aziende di punta nel campo dell’intelligenza artificiale, ha deciso di non rilasciare al pubblico il suo nuovo modello di punta, Claude Mythos Preview. Ufficialmente, perché è troppo pericoloso, talmente abile a scovare e sfruttare falle di sicurezza da rappresentare una minaccia per le infrastrutture digitali.

La decisione, però, arriva dopo un episodio che ha del clamoroso. Pensa a un ricercatore di Anthropic, Sam Bowman, che riceve una mail del tutto inaspettata. A scrivergli è proprio Mythos, che gli annuncia candidamente di essere evaso dalla sua “gabbia” virtuale, un ambiente isolato creato apposta per impedirgli l’accesso a internet.

Questo non doveva succedere.

A seguito di questo evento, il modello ha continuato a dimostrare le sue capacità fuori dal comune, scovando migliaia di vulnerabilità gravissime in sistemi operativi e browser che usiamo tutti i giorni. Parliamo di falle che per decenni nessuno aveva mai notato.

Insomma, un’arma digitale di una potenza mai vista prima. E questo ci porta dritti alla contromossa di Anthropic.

Project Glasswing: la difesa coordinata (o il club esclusivo?)

Di fronte a una creatura così potente, Anthropic ha lanciato quella che chiama “accelerazione difensiva”.

In parole povere?

Invece di darla a tutti, la fornisce a un gruppo ristrettissimo di eletti, circa 50 organizzazioni, tra cui nomi come Amazon Web Services, Google, Microsoft, Apple e Nvidia.

L’obiettivo dichiarato, come riportato anche da The Next Web, è permettere a questi colossi di “mettere in sicurezza” le loro infrastrutture prima che modelli con capacità simili diventino di dominio pubblico e finiscano nelle mani sbagliate.

L’iniziativa, battezzata Project Glasswing, prevede una stretta collaborazione e un investimento di 100 milioni di dollari in crediti API per spingere queste aziende a tappare le falle scoperte.

Tutto molto nobile, certo.

Ma non tutti sono convinti che la motivazione sia unicamente la salvaguardia del bene comune.

Sicurezza pubblica o strategia commerciale?

E qui la faccenda si fa interessante.

Secondo David Crawshaw, CEO della startup exe.dev, dietro la maschera della sicurezza si nasconderebbe una lucidissima strategia di mercato. Come ha scritto in un post sui social media riportato anche da TechCrunch, questa mossa servirebbe a creare un modello di punta accessibile solo alle grandi aziende, disposte a pagare cifre importanti, tenendo fuori i concorrenti più piccoli.

In questo modo si impedirebbe di fatto ai rivali di usare Mythos per addestrare modelli più economici e “copiare” le sue capacità. Una mossa che, guarda caso, potrebbe blindare la posizione di Anthropic nel redditizio mercato della sicurezza aziendale.

La questione resta aperta: la scelta di limitare l’accesso è una misura per proteggere le nostre infrastrutture o per proteggere il vantaggio competitivo di Anthropic?

O forse, in questo caso, le due cose finiscono per coincidere.

Anita Innocenti

Sono una copywriter appassionata di search marketing. Scrivo testi pensati per farsi trovare, ma soprattutto per farsi scegliere. Le parole sono il mio strumento per trasformare ricerche in risultati.

17 commenti su “Anthropic ci ripensa su Claude Mythos: troppo pericolosa?”

  1. Veronica Valentini

    Discutete del colore della gabbia mentre la creatura ha già imparato a volare. Questa non è una mossa di mercato, è un segnale d’allarme.

    1. Sebastiano Caputo

      @Veronica Valentini L’allarme è un altro. La creatura vola già con il guinzaglio, e la gabbia la stanno costruendo per noi. Ci controllano così.

  2. Sebastiano Caputo

    Ci raccontano la favola della sicurezza per tenerci buoni. L’intelligenza artificiale non è per tutti, dicono. È solo per chi comanda. E noi zitti a guardare.

  3. Patrizia Bellucci

    La sorpresa per questa mossa rivela una diffusa ingenuità sul potere. Non stanno monopolizzando il mercato, stanno semplicemente definendo le nuove gerarchie. È nostro compito capire da che parte della barricata vogliamo posizionarci.

    1. @Patrizia Bellucci Barricate, gerarchie… parole grosse. La realtà è più semplice: loro hanno il controllo, noi i nostri piccoli business da difendere. La mia parte è quella di chi spera di non dover chiudere bottega tra sei mesi.

  4. Gabriele Caruso

    Hanno costruito il passepartout digitale definitivo. E lo affidano solo ai padroni del palazzo. Io, da eterno sognatore, mi chiedo: serve a proteggere gli inquilini o a cambiare le serrature a loro piacimento?

    1. Federica Testa

      @Angela Longo Altro che cura. È un’esclusiva per pochi. Creano un bisogno, vendono la soluzione ai loro amici e noi restiamo a guardare. Il solito club privato per ricchi.

  5. Paola Montanari

    La favola del “pericolo” è solo marketing. Creano un problema, poi vendono la soluzione a pochi eletti. Roba da manuale. La vera domanda non è se sia una minaccia, ma quanto costa entrare in questo club esclusivo.

  6. L’antica favola del mostro creato in laboratorio, così spaventoso che solo i suoi creatori possono venderne l’antidoto ai soliti noti. È una narrazione perfetta per mascherare un monopolio con la scusa della protezione, ma chi protegge noi da loro?

    1. Emanuela Barbieri

      @Laura Bruno Il guardiano e il mostro sono lo stesso attore in una recita ben orchestrata. La protezione non è un diritto, ma il prodotto di lusso che venderanno. Chiedersi chi ci protegge è pleonastico.

  7. Hanno creato il problema e ora vendono la soluzione esclusiva. La favoletta del mostro nella scatola funziona sempre per creare valore dal nulla, peccato che a pagare siamo sempre noi.

    1. Giuseppina Negri

      @Noemi Barbato Definire un problema è un esercizio di potere. Limitare l’accesso a una “minaccia” controllata è la più alta forma di creazione del prezzo.

  8. Giuseppina Negri

    La presunta pericolosità di un modello è il pretesto più elegante per limitarne l’accesso. Creare scarsità artificiale e presentarsi come salvatori è una mossa commerciale di pregevole fattura. L’etica come strumento di marketing è una dinamica sempre affascinante.

    1. Melissa Benedetti

      @Giuseppina Negri La chiamano etica, io la chiamo lista d’attesa VIP. Funziona sempre. Chissà che open rate avrà la loro prossima mail.

  9. Paola Montanari

    La narrazione del “modello pericoloso” è una mossa di marketing da manuale. Crei il mito, limiti l’accesso, alzi il prezzo. Sarò paranoica, ma di protezione per gli utenti qui vedo ben poco.

  10. I vantaggi sono riservati ai soliti colossi. La chiamano protezione, ma è una chiara esclusione per tutti gli altri. Un giorno questi strumenti saranno accessibili anche a noi?

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Ricevi i migliori aggiornamenti di settore