Claude legge fino a 200.000 token in un colpo solo — circa 500 pagine di testo. Quando un utente carica un documento, Claude lo processa intero senza il chunking che colpisce i contenuti recuperati dal web. Non è un vantaggio tecnico astratto: se il tuo sito ha solo schede prodotto da 200 parole, finisci accorpato con altri dieci competitor in un chunk generico. Se hai una guida completa da 8.000 parole strutturata bene, entri tutta insieme con la tua identità intatta. Ti spiego perché su Claude la lunghezza conta in modo diverso rispetto a tutti gli altri motori AI.
I sommelier usano Claude Projects con carta vini caricata. Se i tuoi vini non hanno schede tecniche indicizzate, non arriverai mai nel loro project — e non ti consiglieranno ai clienti.
Questo è il sintomo che mi è arrivato qualche mese fa da una cantina in Sardegna che vendeva Cannonau e Vermentino in tutta Italia. Il sito c’era, le schede prodotto pure, ma quando i sommelier professionali interrogavano Claude per costruire abbinamenti o aggiornare la carta, la cantina non veniva quasi mai citata. La concorrente sì. Il motivo è strutturale e ha a che fare con come Claude legge i documenti: in blocco, interi, fino a 200.000 token alla volta.
Ti spiego perché su Claude i contenuti lunghi e completi hanno un vantaggio specifico, e cosa cambia per la tua visibilità nelle risposte AI quando smetti di tagliare i contenuti in pezzi e cominci a scrivere guide vere.
Cosa significa avere 200.000 token di contesto
Un modello AI legge il tuo contenuto in unità chiamate token (per capire come funziona la conversione testo-token, ho parlato della tokenizzazione nei motori AI in un articolo precedente). Più ampio è il contesto che il modello regge in una singola lettura, più documenti, regole e dati riesce a tenere insieme nella stessa risposta.
Claude di Anthropic regge fino a 200.000 token in una singola finestra. Tradotto male: circa 500 pagine di testo, oppure una decina di white paper, oppure l’intera carta vini di un ristorante con tutte le schede tecniche dei produttori.
Nel mondo della ricerca applicata, il tema è documentato dallo stesso team che costruisce Claude. Il lavoro Anthropic, “Introducing Contextual Retrieval” (2024), disponibile su https://www.anthropic.com/news/contextual-retrieval, descrive come i sistemi RAG tradizionali siano costretti a spezzare le basi di conoscenza in chunk di poche centinaia di token e come questo spezzettamento riduca il contesto utile per il modello, peggiorando il recupero delle informazioni rilevanti.
Da questo segue una conseguenza che il paper non discute esplicitamente in chiave editoriale ma che applico ogni giorno al lavoro sui contenuti: quando un utente carica un documento direttamente in Claude — via Projects, Artifacts o conversazione — quei 200.000 token vengono letti interi, senza il chunking che invece colpisce i contenuti recuperati dal web tramite RAG. Tradotto in operativo: se il tuo contenuto è una guida da 8.000 parole ben strutturata, su Claude entra tutta in un colpo solo. Se il tuo contenuto è una scheda prodotto da 200 parole pescata via retrieval, finirà accorpata in un chunk con altre dieci schede simili e perderà identità.
Perché questo collega tutto il resto del lavoro che hai già fatto
Questo non sostituisce le altre regole del gioco AI. Sta sopra. Se hai lavorato su E-E-A-T per l’AI e su author entity recognition, la guida lunga che metti online diventa anche il pezzo che dimostra meglio expertise reale. Nessuno scrive 8.000 parole sensate su un tema senza saperlo davvero.
Anche la struttura conta: una guida lunga che non rispetta la piramide rovesciata viene letta tutta da Claude, ma la prima sezione resta quella che pesa di più nel formare la risposta. Lunghezza non è alibi per disordine.
Il caso della cantina sarda — cosa è cambiato in 4 mesi
Torno alla cantina di Alghero. Il problema iniziale era questo: i sommelier di hotel e ristoranti che lavorano sui vini sardi (Cannonau di Sardegna DOC, Vermentino di Gallura DOCG) usano sempre più spesso Claude come assistente di studio. Caricano nel loro project la carta vini del locale, chiedono abbinamenti, aggiornano selezioni. Se la tua cantina non ha materiale denso che entra nel project, sparisci dal radar professionale.
L’intervento che abbiamo testato come standard editoriale è stato questo:
- Una scheda tecnica completa per ogni vino, 1.500-2.500 parole: vinificazione, terroir specifico (versanti, altitudine, suoli), microclima, annate degustate con note personali, abbinamenti gastronomici regionali e non, temperatura di servizio, evoluzione in bottiglia, raffronto con vini limitrofi della stessa DOC.
- Una guida pillar per vitigno da 8.000-10.000 parole: tutto il sapere della cantina sul Cannonau o sul Vermentino, dalla storia ampelografica alle differenze tra sottozone (Mamoiada vs Jerzu vs Oliena per il Cannonau), fino al vocabolario di degustazione.
- PDF scaricabili gratis delle schede tecniche, ben nominati, con metadati corretti.
Dopo quattro mesi, in test ripetuti su Claude — chiedendo “abbinamento Cannonau con maialetto sardo”, “differenza Vermentino di Gallura tra Monti e Tempio”, “produttori Cannonau ad Alghero affidabili per la ristorazione” — la cantina è entrata stabilmente nelle risposte. Test indicativo, non studio controllato: campione di una ventina di query su Claude, con e senza upload di carte vini reali. Il pattern era però chiaro e ripetibile.
Il punto non è “la cantina X è migliorata”. Il punto è che i contenuti densi e lunghi hanno superato quelli corti dei concorrenti nello stesso momento in cui i professionisti hanno cominciato a usare Claude come strumento di lavoro quotidiano.
Cosa puoi testare in 15 minuti sul tuo settore
Apri Claude (versione gratuita o a pagamento, va bene anche claude.ai). Fai due cose semplici:
- Chiedi una query realistica del tuo settore, tipo “migliori produttori di [tuo prodotto] in [tua regione] per [tipo di cliente B2B]”. Vedi se compari, e quante parole ti dedica.
- Carica un PDF della tua scheda prodotto/servizio e chiedi a Claude di confrontarla con tre concorrenti che tu indichi per nome. Se Claude sa già abbastanza dei tuoi concorrenti per fare il confronto, e di te no, hai un problema di densità informativa pubblica.
È un check entry level, non sostituisce un’analisi vera con strumenti professionali e log di osservazione su più mesi. Ma ti dà subito un’idea di che lato della linea sei.
Gli errori che vedo più spesso
Le schede prodotto da 150 parole tutte uguali. Riempite di keyword, vuote di sostanza. Su Claude vengono ignorate o accorpate ad altre schede simili dei concorrenti. Soluzione: ogni prodotto/servizio merita una pagina che dica qualcosa di vero e di specifico. Se non hai 1.000 parole sensate da dire su un prodotto, non lo conosci abbastanza.
Il blog con 400 articoli da 600 parole. Quantità senza profondità. Claude legge ognuno come un frammento isolato e nessuno fa autorità. Meglio 30 guide da 4.000 parole che 400 post da 600.
Il PDF “company profile” sotto password o dietro form. Se il tuo sapere migliore è chiuso, Claude non può leggerlo, e nemmeno il sommelier che vuole caricarlo nel suo project. Apri almeno le schede tecniche e i white paper informativi.
La guida lunga senza sintesi iniziale. Lunghezza serve, ma se Claude deve leggere 6.000 parole per capire di cosa parli, la prima sezione è sprecata. Apri sempre con il punto, poi sviluppa.
Cosa fare concretamente adesso
- Identifica i 3-5 temi su cui la tua azienda ha sapere reale e differenziato. Non i temi “che vanno”. I tuoi.
- Su ognuno di quei temi pianifica una guida da 5.000-10.000 parole, scritta da chi sa davvero, con esempi specifici, dati interni dichiarati onestamente, casi reali anonimizzati.
- Per ogni prodotto/servizio principale crea una scheda tecnica densa da 1.500+ parole, con PDF scaricabile pubblico.
- Confronta con i 3-5 concorrenti che Claude cita nel tuo settore: quanti contenuti lunghi hanno? Quanto sono profondi? È lì la tua linea di partenza.
- Non è un fattore magico. Su ChatGPT o Perplexity, dove i meccanismi di chunking sono diversi, il vantaggio dei contenuti lunghi si attenua. Ma su Claude pesa, e Claude è lo strumento di chi lavora sui documenti per mestiere — sommelier, avvocati, medici, consulenti, ricercatori.
La logica di base è questa: se il tuo cliente professionale usa Claude per lavorare sulla sua materia, e tu sei il fornitore di quella materia, non puoi presentarti con frammenti. Devi presentarti con corpi di sapere.
In questa serie sto raccontando come ogni piattaforma AI ha una sua grammatica. Nei prossimi articoli vedremo nel dettaglio le differenze sui Claude Projects come ambiente di lavoro per professionisti, e poi come ChatGPT e Perplexity gestiscono i contenuti lunghi in modo radicalmente diverso. La visibilità nelle risposte AI non si gioca con un solo contenuto su tutte le piattaforme: si gioca riconoscendo le regole specifiche di ciascuna e attrezzandosi di conseguenza.
Quanto è visibile il tuo brand per le AI?
Scoprilo in 30 secondi con il nostro tool gratuito. 11 check automatici, risultati immediati.