Le regole del digitale stanno cambiando.
O sei visibile o sei fuori. Noi ti aiutiamo a raggiungere i clienti giusti — quando ti stanno cercando.
Contattaci ora →
Anthropic accusa laboratori cinesi di aver “distillato” il suo modello Claude: una presunta operazione su larga scala che solleva interrogativi sulla sicurezza dell’AI e sulla competizione globale
Il gigante dell'AI Anthropic accusa i laboratori cinesi DeepSeek, Moonshot AI e MiniMax di aver "distillato" le capacità del suo modello Claude tramite un furto su larga scala. Un'accusa che svela la guerra fredda tecnologica in atto, ma che suona paradossale, provenendo da un'industria che ha costruito la sua fortuna su una zona grigia del copyright.
L’accusa di Anthropic: un furto su larga scala?
Messa giù semplice, Anthropic sostiene che tre laboratori cinesi – DeepSeek, Moonshot AI e MiniMax – abbiano usato circa 24.000 account falsi per bombardare il suo modello Claude. L’operazione avrebbe generato oltre 16 milioni di scambi di dati, non per chiacchierare del più e del meno, ma per mettere in atto una tecnica chiamata “distillazione”.
In pratica, è come se avessero costretto Claude a “insegnare” i suoi trucchi del mestiere a modelli concorrenti, trasferendogli le sue abilità più avanzate.
Jacob Klein, capo dell’intelligence sulle minacce di Anthropic, ha dichiarato con “alta confidenza” che si trattava di attacchi di distillazione su larga scala, ottenendo guadagni di capacità “significativi” e “sostanziali”. L’azienda se ne sarebbe accorta analizzando schemi anomali nel traffico, come correlazioni tra indirizzi IP e metadati delle richieste, ben diversi da quelli di un cliente normale.
Ma cosa cercavano di preciso con tutto questo sforzo?
Non stavano certo chiedendo a Claude di scrivere poesie per la fidanzata.
Obiettivo: il cervello del sistema, non il suo volto
L’attacco non era casuale, ma mirato al cuore delle competenze di Claude: ragionamento, programmazione e capacità di utilizzare strumenti esterni.
Ogni laboratorio aveva il suo “piatto preferito”, come si evince dal pezzo di The Register.
DeepSeek, ad esempio, si sarebbe concentrata sul migliorare la logica di base e trovare modi per aggirare le censure su argomenti sensibili. Moonshot AI, invece, puntava al ragionamento complesso e alle capacità di visione computerizzata.
Ma è MiniMax che ha fatto le cose in grande, con 13 milioni di scambi focalizzati sull’orchestrazione e l’uso di strumenti.
La cosa interessante?
Anthropic ha notato che, non appena ha lanciato una nuova versione di Claude, MiniMax ha dirottato quasi metà del suo traffico per bersagliarla, come descritto da TechCrunch.
Un tempismo che puzza di strategia ben pianificata.
E qui la faccenda si fa più seria, perché non si tratta solo di una competizione tra aziende.
Un gioco di specchi nell’industria dell’AI?
Il vero allarme lanciato da Anthropic riguarda la sicurezza. I modelli “distillati” in questo modo non ereditano i paletti etici e le barriere di sicurezza integrate nei sistemi originali.
In parole povere: prendi la potenza di un motore di Formula 1 e la metti su un go-kart senza freni.
Secondo Anthropic, questi modelli “liberi” potrebbero essere usati da governi autoritari per operazioni di cyber-spionaggio, campagne di disinformazione e sorveglianza di massa. Gal Elbaz, co-fondatore di Oligo Security, ha sottolineato il punto: “La parte spaventosa è che puoi prendere tutta quella potenza e scatenarla, perché non c’è nessuno dall’altra parte che imponga delle regole”, come riportato su Cyberscoop. A rendere il quadro ancora più complesso c’è il fatto che Anthropic non è sola: anche OpenAI e Google hanno denunciato tentativi simili di “furto” di proprietà intellettuale.
Ma c’è un dettaglio che fa sorridere, amaramente. Le stesse aziende che oggi gridano al lupo al lupo, come Anthropic, sono state più volte messe sotto accusa per aver “preso in prestito” dati e proprietà intellettuale da tutto il web per addestrare i loro modelli. Si crea così un paradosso in cui chi ha costruito la sua fortuna su una zona grigia del copyright ora si lamenta se qualcuno usa i suoi stessi metodi contro di lui.
Alla fine, chi sta rubando a chi?

Mi si accusa di ingenuità, ma questo copione è già scritto. Il gigante ferito scopre l’acqua calda: il suo metodo è replicabile. Attendo con poco slancio il colpo di scena finale.
Il bue che dà del cornuto all’asino. Hanno costruito la loro fortuna su dati presi da un pascolo comune. Ora si lamentano dei vicini. La vera domanda è: in questo rodeo senza recinti, chi protegge noi?
Isabella Riva, se i ladri litigano per il bottino, perché preoccuparsi della loro morale?
Litigano sulla proprietà di un codice che nessuno governa, come pirati che si contendono una mappa del tesoro su una nave che affonda. La vera questione non è chi ruba, ma quando annegheremo tutti quanti.
Si scannano tra loro per tecnologie che non controllano. Mi sento tanto al sicuro.
Sara, la sicurezza dei singoli non è mai stata l’obiettivo; è una semplice guerra di posizione.
È il classico bue che dà del cornuto all’asino: hanno banchettato per anni su dati altrui e ora si stracciano le vesti se qualcuno usa la stessa forchetta. Tra un po’ finiranno per brevettare pure l’aria che respirano i loro server.
Sabrina, la morale è un lusso che nessuno sembra potersi permettere in questa corsa tecnologica.