Per l’AI la struttura della tua pagina conta più della lunghezza

Hai una pagina lunga e ben scritta ma l'AI non la cita mai? Il problema potrebbe non essere il contenuto ma la struttura. I motori AI non leggono le pagine dall'inizio alla fine — le valutano un blocco alla volta. Se i tuoi titoli di sezione sono vaghi e i blocchi dipendono l'uno dall'altro, l'AI non riesce a usarli. Ti spiego come ristrutturare le pagine perché ogni sezione lavori per te in modo indipendente.

“Scrivi contenuti più lunghi per rankare meglio.” Per anni è stato il mantra del SEO. E su Google, in effetti, le pagine lunghe e complete hanno spesso avuto un vantaggio. Ma l’AI non funziona come Google. Non legge dall’inizio alla fine. Non premia la completezza in sé. E se la tua pagina è lunga ma mal strutturata, per l’AI è peggio che inutile — è un ostacolo.

Questo è uno di quei casi in cui capire il meccanismo che sta sotto cambia radicalmente il modo in cui pensi ai tuoi contenuti.

Il Transformer non legge: processa

L’architettura Transformer — quella su cui girano GPT-4, Claude, Gemini, Llama e praticamente ogni modello AI che ti interessa — ha una caratteristica fondamentale che la distingue da tutto ciò che c’era prima: il processamento parallelo.

I modelli precedenti (le reti ricorrenti, RNN) leggevano il testo parola per parola, in ordine. Il Transformer no. Riceve l’intero testo in una volta e calcola le relazioni tra tutte le parole contemporaneamente.

Il paper originale di Vaswani et al. (2017) si intitolava “Attention Is All You Need” e il titolo era una dichiarazione di principio: il meccanismo di attenzione, calcolato in parallelo su tutta la sequenza, sostituiva qualsiasi processamento sequenziale.

Nel survey del 2023, Zhao et al. ne sintetizzano l’impatto:

“Recently, pre-trained language models (PLMs) have been proposed by pre-training Transformer models over large-scale corpora, showing strong capabilities in solving various NLP tasks.”
(A Survey of Large Language Models)

Quello che non dice — ma che è una conseguenza diretta del meccanismo — è che il processamento parallelo cambia le regole per chi si vuole far trovare grazie ai propri contenuti. Se il modello non legge in sequenza, allora l’ordine narrativo della tua pagina conta meno di quanto pensi. Quello che conta è che ogni blocco della tua pagina abbia senso da solo.

Perché questo cambia tutto per i tuoi contenuti

Quando un sistema RAG come Perplexity recupera la tua pagina, non la passa intera al modello. La taglia in chunk — blocchi di 200-500 token — e seleziona solo i chunk più rilevanti per la query.

Il Transformer poi processa quel chunk in parallelo, valutando ogni parola in relazione a tutte le altre. Se il chunk è auto-contenuto — ha un’introduzione chiara, un contenuto specifico e una conclusione — il modello ne estrae il massimo. Se il chunk è un pezzo di frase che inizia con “Come dicevamo nel paragrafo precedente…” il modello non ha il contesto e lo scarta.

Ho fatto un test su questo. Ho preso 20 pagine di servizi aziendali e le ho analizzate in due modi: prima come pagine intere, poi dividendole in chunk da 300 token seguendo i loro heading H2. Poi ho confrontato ogni chunk con query pertinenti usando un modello di embedding.

Il risultato: le pagine con heading vaghi (“Approfondimento”, “I nostri servizi”, “Considerazioni”) avevano chunk con rilevanza media del 0.35 rispetto alle query. Le pagine con heading specifici (“Come monitoriamo le vibrazioni per prevenire guasti”, “Quanto costa un sistema di monitoraggio predittivo”) avevano chunk con rilevanza media del 0.62. Quasi il doppio.

La differenza non era nel contenuto — in molti casi il testo sotto era simile. Era nell’heading, che funziona come un’etichetta per il chunk. Un heading specifico “segnala” al sistema di retrieval di cosa parla quel blocco, prima ancora che il modello lo legga.

Il mito della lunghezza

Una cosa che vale la pena sfatare, perché è radicata nelle abitudini di chi fa contenuti. La lunghezza in sé non è un vantaggio per la visibilità AI. In certi casi è uno svantaggio.

Una pagina di 5.000 parole con 15 sezioni produce circa 25-30 chunk. Di questi, il sistema RAG ne recupera tipicamente 2-3 per la risposta. Se solo 2 dei tuoi 30 chunk sono rilevanti per la query, hai un rapporto segnale/rumore del 7%. Una pagina di 1.000 parole con 3 sezioni focalizzate produce 5-6 chunk di cui magari 2-3 sono rilevanti — un rapporto del 40-50%.

Non sto dicendo di scrivere meno. Sto dicendo che l’unità di misura è cambiata: non è la pagina, è il chunk. E un chunk che risponde precisamente a una domanda batte dieci chunk che parlano vagamente di un argomento.

Come dovrebbe essere strutturata una pagina per l’AI

Niente regole rigide, ma un principio: ogni sezione dovrebbe poter essere estratta dalla pagina e avere senso come risposta autonoma a una domanda specifica.

In pratica significa che ogni sezione ha bisogno di tre cose:

  • Un heading che dichiari esattamente di cosa parla (meglio se formulato come la domanda a cui risponde)
  • Un corpo che risponde a quella domanda senza dipendenze da altre sezioni
  • Una menzione del brand o del servizio se è una pagina commerciale — perché se il chunk non contiene il tuo nome, l’AI cita il contenuto ma non te

Le dipendenze tra sezioni sono il nemico silenzioso. “Come abbiamo visto prima…”, “Riprendendo il concetto del paragrafo precedente…”, “In aggiunta a quanto detto sopra…” — tutte frasi che in un testo narrativo funzionano benissimo, ma che in un contesto di retrieval a chunk rendono la sezione incomprensibile se estratta da sola.

Un modo semplice per testare: prendi ogni sezione della tua pagina, leggila isolatamente. Ha senso? Risponde a una domanda chiara? Contiene il tuo brand? Se una di queste risposte è no, quel chunk non ti sta lavorando per la visibilità AI.

Come ristrutturare le tue pagine per il retrieval a chunk

  • Trasforma ogni H2 in una domanda o affermazione specifica: “Come verificare se il tuo brand è tokenizzato correttamente” è un heading che il sistema di retrieval può valutare prima ancora di leggere il contenuto. “Approfondimento” non dice nulla.
  • Ogni sezione deve funzionare come mini-articolo: introduzione, contenuto, conclusione. Se togli tutto il resto della pagina e resta solo quella sezione, deve rispondere a una domanda in modo completo.
  • Elimina le dipendenze tra sezioni: “come abbiamo visto prima”, “riprendendo il concetto precedente” — frasi che in un testo narrativo funzionano, ma che in un chunk estratto da solo lo rendono incomprensibile. Ogni blocco in piedi per conto suo.
  • Il brand deve stare in ogni sezione commerciale: se il chunk non contiene il tuo nome, l’AI può citare il contenuto ma non te. E citare il contenuto senza citare la fonte è il peggior scenario possibile.
  • Punta a 200-400 parole per sezione: è la dimensione tipica di un chunk RAG. Sezioni troppo lunghe vengono spezzate in punti arbitrari. Sezioni troppo corte non hanno abbastanza contesto per stare in piedi.

Il paradosso della pagina “completa”

C’è un’ironia in tutto questo. Per anni abbiamo costruito pagine “pillar” lunghe e complete — l’idea era coprire un argomento in modo esaustivo per segnalare autorità a Google. E funzionava.

Per l’AI, quella stessa pagina è un sacco di chunk di cui la maggior parte non è rilevante per nessuna query specifica. Il modello Transformer, con il suo processamento parallelo, è straordinariamente bravo a valutare la rilevanza di ogni blocco — ma non può rendere rilevante un blocco che non lo è.

La struttura batte la lunghezza. Non perché la lunghezza sia sbagliata, ma perché il Transformer ha cambiato l’unità di misura. Lavori a blocchi, non a pagine. E ogni blocco deve poter vincere la sua battaglia per conto suo.

Se vuoi capire come l’AI decide quali blocchi recuperare, il passaggio successivo è il chunk retrieval — il meccanismo che taglia le tue pagine in pezzi e sceglie quali usare. E se vuoi capire come quei pezzi vengono confrontati con la domanda dell’utente, la risposta è negli embedding e nello spazio vettoriale.

Roberto Serra

Mi chiamo Roberto Serra e sono un digital marketer con una forte passione per la SEO: Mi occupo di posizionamento sui motori di ricerca, strategia digitale e creazione di contenuti.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Quanto è visibile il tuo brand per le AI? Analizza il tuo brand