Deepseek R1 si rifà il look: la Cina lancia il guanto di sfida all’AI che conosciamo

Anita Innocenti

Le regole del digitale stanno cambiando.

O sei visibile o sei fuori. Noi ti aiutiamo a raggiungere i clienti giusti — quando ti stanno cercando.

Contattaci ora →

Tra intelligenza artificiale open source e costi computazionali ridotti, la startup cinese punta a competere con i giganti del settore, aprendo nuovi scenari nel panorama dell’AI

DeepSeek, startup cinese, ha rilasciato un sostanziale aggiornamento per il modello R1. Potenziata la pipeline di ragionamento e l'efficienza grazie all'architettura MoE (671B/37B), che riduce i costi computazionali. Disponibile su AWS, Google Cloud e Azure con un pricing basato sulle risorse, sfida i modelli tradizionali.

Sembra proprio che la corsa all’intelligenza artificiale non conosca soste, anzi, si fa sempre più infuocata. Questa volta a far parlare di sé è DeepSeek, una startup cinese che, con un annuncio che ha fatto subito il giro del web (come riportato su api-docs.deepseek.com), ha appena tirato fuori dal cilindro un aggiornamento bello sostanzioso per il suo modello di punta, DeepSeek-R1.

Già a gennaio 2025, quando era uscito, si mormorava che questo R1 potesse dare del filo da torcere persino al celebratissimo o1 di OpenAI, specialmente quando si tratta di far di conto, scrivere codice e, soprattutto, ragionare.

E ora, con questa nuova versione datata 28 maggio 2025, pare che vogliano alzare ancora l’asticella.

Ma cosa bolle davvero in pentola?

Le novità sotto il cofano dell’R1: più cervello e meno sprechi?

Allora, andiamo a vedere più da vicino cosa c’è di nuovo.

Non si tratta di una semplice lucidata, eh.

Pare che i ragazzi di DeepSeek abbiano messo mano seriamente al “cervello” del loro R1. Si parla di una pipeline di ragionamento multi-stadio rifinita, che usa dati “cold-start” per migliorare coerenza e precisione, mantenendo quella capacità di ragionare per “catena di pensiero” che tanto piace agli addetti ai lavori.

Insomma, l’obiettivo è farlo pensare meglio, in modo più pulito.

E la cosa interessante, stando a quanto si legge nella guida completa ai modelli DeepSeek pubblicata su BentoML, è che non si sono fermati qui.

Già, perché oltre a potenziarne l’intelligenza, hanno lavorato sodo sull’efficienza.

Immagina un motore enorme con tantissimi cilindri, ma che ne usa solo una piccola parte quando serve davvero.

Ecco, l’architettura MoE (Mixture of Experts) del DeepSeek-R1 funziona un po’ così: dei suoi 671 miliardi di parametri totali (una cifra da capogiro!), ne attiva solo 37 miliardi per ogni richiesta.

Il risultato?

Un taglio ai costi computazionali che, secondo un’analisi approfondita di Fireworks.ai, potrebbe arrivare all’85% rispetto ai modelli tradizionali.

Mica male, se pensi a quanto costa far girare questi bestioni.

E se ti stai chiedendo come pensano di farcelo usare, beh, anche qui c’è una sorpresa.

Dagli hedge fund all’AI open source: chi c’è dietro DeepSeek e perché dovremmo drizzare le antenne?

La sorpresa è che DeepSeek-R1 non te lo trovi solo sulla loro piattaforma, ma è sbarcato su colossi come AWS, Google Cloud e Microsoft Azure. E qui la faccenda si fa interessante, perché invece del solito salasso “a gettone” (paghi per token, insomma), DeepSeek, come sottolineato da CampusTechnology, propone un modello basato sulle risorse di calcolo.

Una mossa che strizza l’occhio al mondo dell’AI open source e che potrebbe, dico potrebbe, rimescolare un po’ le carte in tavola per i giganti del cloud, spesso accusati di praticare prezzi non proprio popolari.

Ma chi è che tira le fila di questa operazione?

Dietro DeepSeek c’è Liang Wenfeng, un nome che forse non ti dirà molto, ma che nel mondo della finanza quantitativa, prima di buttarsi sull’AI nel maggio 2023, era uno che sapeva il fatto suo. Il suo precedente hedge fund da 10 miliardi di dollari, High-Flyer, come racconta un articolo di SEO.AI sul fondatore, gli ha evidentemente insegnato un paio di cosette su come far quadrare i conti.

Pare che il modello V3, il predecessore dell’R1, sia stato addestrato con “soli” 2.000 chip NVIDIA H800, per una spesa inferiore ai 6 milioni di dollari. Cifre che fanno sorridere se paragonate ai budget faraonici di altri big. Questo approccio “risparmioso ma efficace” è sicuramente uno dei motivi del rapido successo di R1.

Però, quando si parla di open source e di modelli così potenti resi accessibili, qualche domanda sorge spontanea, no?

Tra applausi e sopracciglia alzate: l’industria che dice? E noi cosa dobbiamo aspettarci?

Da un lato, i fornitori cloud come AWS lodano questo approccio al pricing “basato sulle risorse”, vedendolo come una potenziale rivoluzione per l’adozione dell’AI open source. Gli sviluppatori, dal canto loro, sembrano apprezzare: Fireworks AI, ad esempio, ha registrato un’impennata del 300% nelle implementazioni di R1 da marzo, attratti da un costo di 8 dollari per milione di token, ben lontano dai 15/60 dollari (input/output) di OpenAI.

Numeri che fanno gola, è innegabile.

Ma c’è sempre un “ma”, soprattutto quando si maneggiano strumenti così potenti e, diciamocelo, con una licenza MIT che apre le porte a un po’ di tutto, come si può intuire anche dalle discussioni attorno al modello sulla pagina dedicata di Hugging Face.

Il dibattito etico, infatti, è dietro l’angolo.

Mentre i sostenitori dell’open source esaltano la trasparenza del processo di ragionamento dell’R1 come una sorta di garanzia, i critici (e forse non hanno tutti i torti) storcono il naso pensando ai possibili usi impropri. Questa ascesa di DeepSeek, che piaccia o no, riflette la crescente influenza della Cina nel panorama AI globale, mettendo sotto pressione i soliti noti, soprattutto quelli che finora hanno dettato legge e imposto i loro standard, non sempre nell’interesse degli utenti finali.

Ricordi il crollo del 12% delle azioni del settore AI quando uscì la prima versione di R1 a gennaio? Ecco, fu un piccolo assaggio di come la “commoditizzazione” dell’AI, spinta anche da questi nuovi attori, possa far tremare i mercati.

E con quest’ultimo aggiornamento, la pressione sui concorrenti a diventare più efficienti e, forse, meno esosi, non farà che aumentare.

Ma la vera partita si giocherà su altri campi.

Wenfeng e il suo team, infatti, non si nascondono: puntano a integrare R1 nella robotica e nei sistemi decisionali in tempo reale.

Già si parla di progetti pilota nella logistica che avrebbero portato a guadagni di efficienza del 40%.

“Democratizzare l’AI avanzata non è solo una questione di accessibilità”, ha dichiarato Wenfeng in una recente intervista, “è ridefinire ciò che è possibile quando si unisce la scala alla precisione”.

Belle parole, certo.

Ma questa corsa alla “democratizzazione”, spinta da colossi emergenti e vecchie glorie che si rincorrono, spesso più interessati a conquistare quote di mercato che a un reale progresso condiviso, ci porterà davvero a un futuro migliore o a un far west digitale dove le regole sono ancora tutte da scrivere e i più piccoli rischiano di rimanere schiacciati?

Una cosa è sicura: DeepSeek R1 ha gettato un altro sasso nello stagno, e le onde si faranno sentire per un bel po’.

Anita Innocenti

Sono una copywriter appassionata di search marketing. Scrivo testi pensati per farsi trovare, ma soprattutto per farsi scegliere. Le parole sono il mio strumento per trasformare ricerche in risultati.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Ricevi i migliori aggiornamenti di settore