Hai mai notato che l'AI cita sempre le stesse fonti e mai le tue? Una delle ragioni è meccanica: i modelli tagliano le pagine in blocchi da 200-500 token. Se la tua risposta è spalmata su tre sezioni diverse non viene estratta — nemmeno se è quella più precisa in circolazione. Non è un problema di autorità del dominio. È un problema di struttura. Ti spiego come trasformare ogni sezione in un'unità autonoma che l'AI può estrarre e citare per intero.
Hai presente quando cerchi qualcosa su un motore AI e la risposta che ricevi è precisa, completa, autosufficiente? Quel frammento di testo non arriva per caso. Arriva perché qualcuno ha scritto una sezione della propria pagina in modo che funzionasse come unità indipendente, senza dipendere da ciò che veniva prima o dopo.
Il punto è questo: i sistemi di retrieval non leggono le tue pagine dall’inizio alla fine. Le tagliano in blocchi, e ogni blocco viene valutato da solo. Se una sezione ha bisogno della precedente per avere senso, quel blocco viene scartato. E con lui, la tua possibilità di essere citato.
Come l’AI taglia le tue pagine in blocchi
Prima di generare qualsiasi risposta, i modelli AI passano attraverso una fase di retrieval: recuperano blocchi di testo da fonti esterne per costruire il contesto su cui ragionare. E qui sta il meccanismo che ti interessa.
Nel survey di Gao et al. del 2024 il processo viene descritto con chiarezza:
“The most common method is to split the document into chunks on a fixed number of tokens (e.g., 100, 256, 512).”
In pratica, la tua pagina da 2.000 parole non viene letta come un unico documento. Viene spezzata in blocchi da 200-500 token ciascuno, e ogni blocco entra nel sistema di retrieval come entità separata. Il modello non sa che quel blocco è il terzo paragrafo del tuo articolo. Lo valuta come se fosse l’unico testo disponibile.
Ed ecco perché la struttura della pagina diventa un fattore competitivo: se il tuo blocco contiene una risposta completa, viene selezionato. Se contiene mezza risposta che dipende dal paragrafo precedente, viene scartato a favore di un competitor che ha scritto meglio.
Perché il blocco deve funzionare da solo
Il concetto è più profondo di quanto sembri a prima vista. Non si tratta solo di scrivere paragrafi corti. Si tratta di scrivere sezioni che contengano un’informazione completa e verificabile in modo autonomo.
Lo stesso survey descrive il principio alla base di questa logica:
“Propositions are defined as atomic expressions in the text, each encapsulating a unique factual segment and presented in a concise, self-contained natural language format.”
Tradotto nel tuo contesto: ogni sezione della tua pagina dovrebbe funzionare come una proposizione atomica. Un’affermazione che contiene un fatto, una risposta, un’informazione utile, senza bisogno di contesto esterno per essere compresa.
Pensa a come scrivi le tue pagine oggi. Probabilmente hai un’introduzione che presenta il tema, poi una sezione che lo sviluppa, poi una che aggiunge dettagli, poi una conclusione. Il problema è che la sezione di sviluppo spesso inizia con “come abbiamo visto” o “partendo da quanto detto sopra”. Per un lettore umano funziona. Per il retrieval AI, quel blocco è inutilizzabile: dipende da un contesto che non c’è, perché il sistema ha estratto solo quel pezzo.
E questo non è un caso limite. La maggior parte dei siti aziendali che ho analizzato ha esattamente questo problema: pagine scritte come flusso narrativo sequenziale, dove ogni sezione presuppone che tu abbia letto quella prima. Per il lettore che scorre dall’alto in basso non è un problema. Per il retrieval che pesca un blocco dal centro della pagina, è un vicolo cieco.
Il meccanismo di estrazione che decide chi viene citato
Per capire l’impatto concreto, ti aiuta sapere cosa succede dopo il taglio. Come spiega Zhao et al., 2024:
“It efficiently segments data into manageable chunks, generates relevant embeddings, and stores them in a vector database for optimized retrieval.”
Ogni blocco viene convertito in un vettore numerico, un embedding, e archiviato in un database. Quando un utente fa una domanda, il sistema confronta la domanda con tutti i blocchi archiviati e seleziona quelli più simili. Il modello costruisce la risposta a partire da quei blocchi selezionati.
Ecco il passaggio critico: il confronto avviene tra la domanda e il singolo blocco. Se il tuo blocco contiene domanda e risposta in modo esplicito, il match semantico è forte. Se il tuo blocco contiene solo la risposta senza la domanda, o peggio solo un’argomentazione che ha senso solo leggendo la sezione precedente, il match è debole. E un match debole significa non essere selezionato.
Questo è il motivo per cui ne ho parlato anche in un articolo dedicato alla struttura a piramide rovesciata: la posizione dell’informazione conta, ma la sua autosufficienza conta ancora di più.
Come trasformare ogni sezione in un blocco citabile
Il principio operativo è semplice: ogni sezione delimitata da un titolo deve essere un mini-articolo autonomo. Titolo descrittivo che anticipa il contenuto. Primo paragrafo che risponde alla domanda implicita del titolo. Paragrafi successivi che aggiungono evidenze o dettagli. Il tutto in un range di 200-400 token.
Faccio un esempio concreto. Immagina una sezione intitolata “Risultati”. Sotto, il testo dice: “I risultati confermano quanto ipotizzato nella sezione precedente. Il miglioramento è stato del 34% rispetto al baseline.” Per un lettore umano è chiaro. Per il retrieval AI, quel blocco è opaco: non dice di cosa parla, non dice quale ipotesi conferma, dipende interamente dalla sezione precedente.
Riscritta in ottica chunk-friendly, diventa: “L’ottimizzazione delle schede prodotto ha migliorato la visibilità del 34% rispetto al formato precedente. Il fattore principale è stato l’inserimento della risposta nel primo paragrafo di ogni scheda.” Stesso contenuto, stessa lunghezza, ma il blocco ora funziona da solo. Un sistema di retrieval può estrarlo e citarlo senza perdere significato.
I segnali che indicano una struttura non chunk-friendly
Se vuoi iniziarti a fare un’idea di come stanno le tue pagine, ci sono alcuni indicatori che puoi controllare subito. È un primo passo per orientarti, non un’analisi completa, ma ti dà una direzione.
Pronomi senza referente visibile. Se una sezione inizia con “questo”, “esso”, “tale approccio” senza specificare a cosa si riferisce, quel blocco non funziona da solo. Il pronome punta a qualcosa che sta nella sezione precedente, e il retrieval non lo segue.
Titoli generici. “Approfondimento”, “Dettagli”, “Continua”, “Parte 2” non comunicano nulla al sistema di retrieval. Il titolo è il primo elemento che il modello valuta per capire se il blocco è rilevante alla query. Ne parlo in modo specifico nell’articolo sulla gerarchia dei titoli.
Sezioni troppo lunghe. Se una sezione supera i 500-600 token, verrà tagliata a metà dal chunking. E un blocco tagliato a metà è peggio di un blocco corto: contiene un’argomentazione incompleta.
Riferimenti incrociati. “Come abbiamo detto”, “riprendendo il discorso”, “alla luce di quanto sopra”. Per un testo sequenziale sono connettori naturali. Per il retrieval sono segnali che il blocco non è autosufficiente.
Cosa fare concretamente
Il lavoro è chirurgico, ma il criterio è uno solo: ogni sezione deve rispondere a una domanda implicita senza bisogno di leggere nient’altro.
Prendi le tue pagine principali, quelle per cui vuoi essere visibile nelle risposte AI, e verifica sezione per sezione. Il titolo anticipa il contenuto? Il primo paragrafo dà la risposta? Il blocco ha senso se letto in isolamento? Se la risposta a una di queste domande è no, quella sezione va riscritta.
Non serve riscrivere tutto il sito in un giorno. Inizia dalle 5-10 pagine che rispondono alle query più frequenti nel tuo settore. E per ogni pagina, controlla che nessuna sezione dipenda dalla precedente per avere senso. Questo è il livello entry-level del lavoro. Un’analisi completa richiede di verificare come il chunking effettivo spezza le tue pagine, qual è la lunghezza media dei blocchi nel sistema specifico che ti interessa, e come i tuoi blocchi si confrontano con quelli dei competitor nel database vettoriale.
In parallelo, il sommario in cima alla pagina e lo spazio sopra la piega lavorano nella stessa direzione: dare al sistema di retrieval i segnali giusti nel formato giusto.
Il contenuto che l’AI cita non è necessariamente il migliore. È quello che funziona come blocco autonomo. E rendere le tue sezioni autonome è un intervento strutturale che cambia la probabilità di essere citato su ogni query in cui sei rilevante.