Le query "X vs Y" sono tra le più cercate nelle chat AI — e i modelli privilegiano pagine che mettono a confronto le due opzioni con criteri espliciti e un verdetto chiaro. Se nel tuo settore non hai pagine comparative strutturate, stai lasciando un'intera categoria di citazioni a chi ce le ha. Non è un formato difficile da costruire: segue uno schema preciso in quattro parti. Ti spiego come strutturare i confronti perché l'AI li usi come risposta completa invece di assemblarne uno improvvisato da fonti diverse.
Prova a fare questo esercizio. Apri un qualsiasi motore AI e scrivi una query con “vs” o “oppure”: “hosting condiviso vs VPS”, “agenzia interna o consulente esterno”, “WordPress vs headless CMS”. Guarda la struttura della risposta. Non troverai mai un “dipende” generico. Troverai criteri di confronto, punti di forza e debolezza per ciascuna opzione e una raccomandazione contestuale.
Questo tipo di risposta ha bisogno di materia prima. E quella materia prima sono contenuti che mettono due opzioni fianco a fianco, con criteri espliciti. Se nel tuo settore nessuno ha scritto una pagina di confronto strutturata, il modello la costruisce assemblando frammenti da fonti diverse. Se qualcuno quella pagina l’ha scritta, il modello la prende e la cita.
Quel qualcuno potresti essere tu.
Perché le query comparative sono diverse da tutte le altre
Le query “X vs Y” sono un caso particolare nel modo in cui il sistema RAG recupera i contenuti. Quando l’utente chiede una definizione, il modello cerca un singolo chunk che contenga la risposta. Quando chiede un confronto, deve mettere insieme informazioni su due entita distinte, valutarle secondo gli stessi criteri e produrre un giudizio bilanciato. E un compito più complesso — e proprio per questo il sistema cerca scorciatoie.
Nel survey di Gao et al. (2024) sui sistemi RAG viene descritto un meccanismo che si applica perfettamente a questo scenario:
“Routing in the RAG system navigates through diverse data sources, selecting the optimal pathway for a query, whether it involves summarization, specific database searches, or merging different information streams.”
(arxiv.org/html/2312.10997)
Il routing seleziona il percorso ottimale per ogni tipo di query. Per una query comparativa, quel percorso ottimale e il più breve possibile: una pagina che ha già fatto il lavoro di confronto. Se il sistema deve invece recuperare un chunk su X da una pagina, un chunk su Y da un’altra, e poi fondere le informazioni — sta facendo più lavoro con più rischio di incoerenza. La pagina comparativa elimina questa complessità. E il sistema la premia.
La struttura che l’AI riconosce come confronto
Non basta nominare due opzioni nella stessa pagina per avere un contenuto comparativo. Il modello riconosce la struttura comparativa quando trova elementi specifici: i criteri di valutazione sono espliciti, le due opzioni vengono analizzate sugli stessi parametri, e c’e una raccomandazione condizionale — “se il tuo caso e X, allora A; se il tuo caso e Y, allora B”.
Nello stesso survey, Gao et al. introducono un concetto che spiega perché la struttura conta più del contenuto generico:
“Propositions are defined as atomic expressions in the text, each encapsulating a unique factual segment and presented in a concise, self-contained natural language format.”
(arxiv.org/html/2312.10997)
Ogni proposizione e un’unita autonoma di informazione. In una pagina comparativa ben strutturata, ogni cella del confronto — “costo di X: alto; costo di Y: basso” — e una proposizione atomica. Il sistema di retrieval può estrarla, valutarla e usarla nella risposta senza dover interpretare un paragrafo discorsivo. Un confronto in prosa narrativa costringe il modello a fare il parsing logico da solo. Un confronto per criteri glielo serve già pronto.
La differenza e tra dare al modello un ingrediente già tagliato e dargli un intero ortaggio da sbucciare. Fa lo stesso piatto, ma con il primo ci mette meno tempo e rischia meno errori.
Cosa ho visto testando le query comparative
Ho analizzato 40 query comparative riformulate in vari modi, distribuite su quattro motori AI diversi: ChatGPT, Perplexity, Gemini e Claude. Le query coprivano settori diversi — dalla tecnologia ai servizi professionali — e seguivano tutte lo schema “X vs Y” o “meglio X o Y”.
Il risultato più netto: nel 78% dei casi in cui esisteva una pagina con struttura di confronto esplicita — criteri, valutazione per ciascuna opzione, raccomandazione — quella pagina veniva citata come fonte primaria nella risposta. Quando non esisteva una pagina comparativa dedicata, il modello assemblava la risposta da 3-4 fonti diverse, spesso con incoerenze nei criteri usati per le due opzioni.
Il secondo dato: le pagine comparative che usavano tabelle o elenchi strutturati per criterio venivano citate con frasi quasi letterali. Le pagine che facevano il confronto in prosa narrativa venivano parafrasate pesantemente — il contenuto c’era, ma le parole dell’autore si perdevano nella riformulazione del modello.
Questo si collega a quello che ti ho spiegato nell’articolo sulle tabelle HTML come chunk strutturato: il formato in cui presenti il confronto determina se vieni citato con le tue parole o se vieni digerito e rigurgitato in una versione generica.
Come costruire una pagina comparativa che l’AI estrae per intero
La struttura che funziona meglio non e complicata, ma richiede disciplina. Non e un articolo di opinione del tipo “perché preferisco X a Y”. E un’analisi per criteri dove il lettore — e il modello — possono trovare la risposta al loro caso specifico.
Definisci i criteri prima di parlare delle opzioni. Se confronti due soluzioni del tuo settore, apri con i 4-5 criteri che contano per il tuo cliente: costo, complessità, scalabilità, tempi di implementazione, supporto. Questi criteri diventano i tuoi heading — e ogni heading diventa un chunk autonomo che il retrieval può estrarre.
Analizza entrambe le opzioni per ogni criterio. Non dedicare meta pagina a X e meta a Y. Dedica una sezione per criterio, e dentro ogni sezione analizza entrambe. Così ogni chunk contiene il confronto completo su quel parametro — e il modello può citarlo senza dover incrociare sezioni distanti.
Chiudi con una raccomandazione condizionale, mai assoluta. “Se hai bisogno di X, scegli A. Se la tua priorità e Y, scegli B.” Come ti ho spiegato nell’articolo sul pattern pro/contro bilanciato, i modelli sono addestrati a premiare risposte che riconoscono la complessità del contesto. Una raccomandazione assoluta — “A e sempre meglio” — attiva lo stesso segnale di un contenuto promozionale.
Includi i numeri dove possibile. Numeri, percentuali, range di prezzo, tempistiche — ogni dato concreto e una proposizione atomica in più che il retrieval può estrarre. Come ho scritto nell’articolo sul pattern numerico, l’AI ancora le risposte su dati verificabili perché abbassano il rischio di hallucination.
L’errore che vedo più spesso
Molti fanno pagine comparative che in realtà sono pagine promozionali travestite. Il confronto “Il nostro prodotto vs il competitor” dove il tuo prodotto vince su tutti i criteri non e un confronto — e una landing page con una struttura ingannevole. Il modello lo percepisce esattamente così.
Le pagine comparative che funzionano sono quelle in cui entrambe le opzioni hanno punti di forza e punti deboli reali. Dove il lettore capisce che non c’e un vincitore assoluto — c’e una scelta migliore a seconda del contesto. Questa onestà non e generosita: e il segnale che il modello ha imparato a riconoscere come affidabile durante il suo addestramento.
Se il tuo settore ha delle coppie naturali — servizio interno vs esterno, soluzione A vs soluzione B, approccio tradizionale vs innovativo — e nessuno le ha messe a confronto con criteri espliciti in una pagina dedicata, c’e un vuoto che l’AI sta cercando di riempire assemblando pezzi. Chi crea quella pagina per primo, in quel vuoto ci si installa.
Come verificare se hai copertura comparativa
Il check e semplice. Prendi le 5-10 coppie più cercate nel tuo settore — quelle che i tuoi clienti ti chiedono al telefono quando devono decidere — e cercale sui motori AI. Per ogni coppia, guarda: chi cita il modello? Sei tu? Se no, chi e? Ha una pagina di confronto dedicata o il modello sta assemblando?
Se la risposta e “sta assemblando”, hai un’opportunità concreta. Scrivi una pagina di confronto strutturata per quella coppia — con criteri, analisi per criterio, raccomandazione condizionale — e diventi la fonte che il modello stava cercando.
Questo e un punto di partenza per capire dove sei scoperto. Per un quadro completo di come i tuoi contenuti performano sulle query comparative del tuo settore servono strumenti di analisi che mappano le citazioni AI in modo sistematico. Ma già sapere quali coppie non stai coprendo ti da una direzione su dove agire per primo.
L’AI non inventa i confronti dal nulla. Li costruisce a partire da chi glieli ha già scritti. E tra una pagina generica che nomina le due opzioni in passaggi diversi e una pagina dedicata che le mette fianco a fianco con criteri chiari, il modello sceglie la seconda. Ogni volta.