Le regole del digitale stanno cambiando.
O sei visibile o sei fuori. Noi ti aiutiamo a raggiungere i clienti giusti — quando ti stanno cercando.
Contattaci ora →
Un modello di intelligenza artificiale capace di analizzare un milione di token: una sfida ambiziosa tra promesse, costi e l’effettiva utilità di una simile potenza computazionale.
Anthropic ha annunciato che il suo modello AI, Claude Sonnet 4, può ora gestire fino a un milione di token in una singola richiesta. Questa capacità, equivalente a circa 750.000 parole, è una chiara dichiarazione di guerra a OpenAI e al suo GPT-5. L'obiettivo è analizzare intere codebase o documenti di ricerca complessi, sebbene sorgano dubbi su costi e efficacia reale.
Un milione di token: cosa ci facciamo davvero?
Mettiamo in prospettiva questo numero: un milione di token equivale a circa 750.000 parole. È come se potessi chiedere a Claude di leggersi l’intera trilogia del Signore degli Anelli e poi fargli domande specifiche sulla genealogia degli Hobbit. L’obiettivo dichiarato da Anthropic è ovviamente il mondo enterprise.
Pensano a sviluppatori che possono sottoporre intere codebase per scovare bug o a legali che analizzano contratti lunghi decine di pagine in un colpo solo.
Tutto molto bello.
Peccato che la mossa arrivi in un momento in cui la competizione, soprattutto con OpenAI, si gioca sul filo del rasoio, non solo sulle capacità ma anche e soprattutto sui costi.
E qui la faccenda si fa interessante.
Perché una capacità così mastodontica non è solo una sfida tecnica, ma solleva una domanda fondamentale:
serve davvero?
O stiamo solo partecipando a una gara a chi ce l’ha più lungo (il context window, s’intende) senza pensare alle implicazioni reali?
Dalle promesse ai fatti: Claude Sonnet 4 alla prova del nove
A quanto pare, per una volta, le promesse sembrano mantenute, almeno in parte.
I primi test indipendenti mostrano che Claude Sonnet 4 non solo regge il colpo, ma è persino più veloce e genera meno “allucinazioni” rispetto ai concorrenti come Gemini 2.5 di Google, quando messo sotto stress con richieste così enormi.
La comunità degli sviluppatori, intanto, è in fermento. Sui forum come quello di Cursor, c’è chi non vede l’ora di mettere le mani su questa potenza di fuoco, frustrato dai limiti attuali.
Ma attenzione, perché qui i tecnici più smaliziati storcono un po’ il naso.
Il problema, per chi mastica un po’ di tecnica, si chiama “complessità quadratica” del meccanismo di attenzione. In parole povere: più allunghi la richiesta, più la potenza di calcolo necessaria cresce in modo esponenziale.
Anthropic giura di aver lavorato sodo per ottimizzare il tutto, ma il dubbio resta.
Siamo sicuri che il modello “legga” e “capisca” davvero tutto l’input o si limita a pescare qualche informazione qua e là?
Il prezzo del superpotere: chi paga il conto?
E arriviamo alla nota dolente, quella che interessa a te e a me: il portafoglio.
https://www.anthropic.com/news/1m-contextAnthropic ha messo in piedi una struttura di prezzi a due velocità. Per richieste fino a 200.000 token, le tariffe restano quelle standard. Ma se osi superare quella soglia per sfruttare il milione di token, il prezzo raddoppia.
L’azienda si affretta a dire che, usando qualche trucchetto come il caching dei prompt, si può arrivare a risparmiare fino al 50%.
Sarà.
La verità è che questa potenza si paga, e cara.
La disponibilità, per ora, è in beta pubblica tramite API per clienti selezionati e su Amazon Bedrock, mentre l’integrazione su Google Cloud è data come “in arrivo”.
La vera domanda, come sottolinea qualche sviluppatore sulla piattaforma Hacker News, non è quanti dati possiamo dare in pasto all’IA, ma quali.
Perché buttare dentro l’intero magazzino sperando che l’IA trovi da sola l’ago nel pagliaio, forse, non è la strategia più brillante.
Anzi, rischia di essere solo un modo più costoso e scenografico per ottenere gli stessi risultati, se non peggiori.
Un milione di token? Ottimo, così possiamo finalmente leggere le condizioni d’uso complete di ogni software prima di installarlo. Costi permettendo, ovviamente. Giusto per non rimanere nell’ignoranza, no?