L’intervista con Andrea Volpini di WordLift svela strategie, metriche e scelte editoriali che permettono a un’azienda di entrare nei flussi di risposta generati da ChatGPT, Claude, Gemini (e presto anche Google AI Mode)
La SEO non è più un esercizio di ottimizzazione per comparire in SERP: con l’avvento dell’AI Mode, del query fan-out e dei modelli linguistici, la sfida si è spostata su un terreno nuovo, in cui la visibilità dipende da come i contenuti vengono compresi, smontati e ricomposti dalle macchine.
È una trasformazione che obbliga a ripensare il concetto stesso di “posizionamento” e a misurarsi con un web fatto di blocchi semantici, citazioni e ragionamenti automatici.
In questo scenario, non basta più scrivere articoli ben strutturati o schede prodotto dettagliate: serve costruire un patrimonio di conoscenza leggibile dalle IA, capace di inserirsi nei loro percorsi logici. Un passaggio che può spaventare molti imprenditori e marketer, ma che apre possibilità enormi a chi sa interpretare il cambiamento con visione e metodo.
Per questo nuovo appuntamento di SEO Confidential abbiamo incontrato Andrea Volpini, CEO e co-founder di WordLift. Innovatore e imprenditore con vent’anni di esperienza internazionale nel marketing e nell’editoria digitale, Volpini ha dedicato la sua carriera al web semantico e all’intelligenza artificiale.
Dopo aver fondato realtà come InSideOut10 e InsideOut Today in Egitto, oggi guida WordLift, una delle realtà più avanzate nella costruzione di knowledge graph e soluzioni per rendere i contenuti “machine-visible”.
Con lui abbiamo dialogato dei temi più scottanti del momento: dal concetto di Reasoning Web – un web che non si limita più a mostrare pagine ma a costruire veri e propri percorsi logici – alla creazione di contenuti LLMificabili, progettati per essere compresi e riutilizzati dalle intelligenze artificiali.
Abbiamo discusso di come misurare la machine-visibility di un brand, delle nuove metriche che contano davvero nell’AI Mode e delle strategie che permettono a una PMI di diventare la fonte citata e riconosciuta da sistemi come ChatGPT, Gemini o Claude.
Ne è uscita un’intervista che rompe gli schemi: concreta, visionaria e sorprendente. Una conversazione che mostra perché la SEO del futuro non sarà più una corsa a scalare le SERP, ma una battaglia per diventare il tassello indispensabile nel ragionamento delle macchine.
Machine-visibility, autorevolezza e contenuti “LLMificabili”: Andrea Volpini racconta la nuova era della SEO nell’AI Mode
Molti imprenditori temono che l’AI Mode riduca il traffico diretto ai siti, perché l’utente trova già la risposta in Google: come può una PMI trasformare questo scenario da rischio a opportunità, e quali metriche dovrebbe monitorare per capire se sta davvero beneficiando di questa nuova forma di ricerca?
Per una PMI il punto non è “perdere click”, ma guadagnare rilevanza nel contesto dell’IA. L’opportunità è quella di diventare la fonte autorevole che un motore di ricerca o un modello linguistico cita, utilizza, suggerisce. Io immagino un web senza pagine statiche fatto esclusivamente di risposte fornite dall’IA e presentate con un’interfaccia dinamica, adattiva all’utente.
Non ci sono click. Ci sono concetti, associazioni, marchi forti, risposte e soluzioni che derivano da associazioni semantiche ed euristiche in continua evoluzione (quali sono i feedback degli utenti? che informazioni riesco a raccogliere su questo prodotto rispetto a un prodotto concorrente? etc).
Per raggiungere questa autorevolezza serve un core di contenuti che siano prima di tutto LLMificabili: leggibili dalle macchine (schema.org, knowledge graph, chunking dei testi, esempi sintetici, domande e risposte in dataset aperti, llms.txt e altro ancora) e contenuti che rispondono in profondità alle domande reali degli utenti.
Qualche giorno fa abbiamo chiuso un contratto da 18.000$ con un cliente americano. Ci ha trovato usando ChatGPT. Vuole essere visibile come noi lo siamo stati con lui con i suoi clienti. Questo è il primo dato che vogliamo misurare. L’impatto sul nostro business. Poi possiamo definire delle metriche proxy impressions e citazioni in AI Mode, click assistiti (cioè ricerche dove l’utente interagisce prima con l’IA e poi arriva al sito), e la salience delle nostre entità nel Google Knowledge Graph, i log di crawling degli AI agent. Questi indicatori mostrano se stiamo diventando machine-visible, cioè presenti e competitivi nel nuovo contesto dell’AI search.
L’AI Mode non sceglie più una pagina intera, ma passi specifici che rispondono a “sub-domande” generate dal motore: quali strategie pratiche dovrebbero adottare le aziende per trasformare i propri contenuti in blocchi davvero utilizzabili dall’IA e non rischiare di essere esclusi dalle risposte?
La strategia è semplice. Chiudi gli occhi, il tuo sito web è scomparso. Sono rimasti però un set di blocchi semantici estremamente rappresentativi, non più un flusso narrativo continuo incastrato in una pagina statica. Ogni blocco deve essere:
- Autocontenuto – in grado di rispondere a una domanda precisa senza dover leggere tutto l’articolo.
- Etichettato semanticamente – con markup, concetti concreti, Q&A, tabelle, liste: elementi che un modello può facilmente estrarre e riformulare.
- Collegato al Knowledge Graph – cioè parte di una rete di entità e relazioni che dà contesto e autorevolezza.
Immagina di costruire il Graph RAG (ovvero un sistema per reperire contenuti da un KG) per conto terzi.
Una PMI può iniziare in modo semplice: trasformare le FAQ in dataset leggibili dalle macchine, spezzare i testi lunghi in paragrafi ottimizzati come “chunks”, inserire esempi pratici e confronti con prodotti concorrenti. Collegare questi blocchi tra di loro, evitare le duplicazioni, specializzare il targeting.
In questo scenario non vince chi scrive più articoli, ma chi offre i moduli della conoscenza migliori per alimentare le risposte dinamiche dell’IA. Così si riduce il rischio di essere esclusi e si aumenta la probabilità di essere citati come fonte autorevole.
Oggi, come sappiamo, non basta più “puntare su parole chiave”, serve aiutare l’IA nei suoi ragionamenti: come tradurre questo in scelte editoriali concrete per guide, schede prodotto o articoli di settore?
Le parole chiave servivano a farci trovare da un motore che abbinava query e documenti. Oggi i contenuti devono parlare a un sistema che ragiona per step: l’AI Mode scompone le domande in sotto-domande, collega entità e costruisce percorsi logici.
Io chiamo questa nuova fase Reasoning Web. Anni fa, nell’era pre-ChatGPT, invitavo i marketer a diventare prompt masters, sperimentando con i primi modelli open source come T5 di Google. Oggi il passo successivo è ragionare in termini di memoria e apprendimento dei modelli.
Un modello impara con gli esempi – esattamente come facciamo noi sapiens. Ecco perché parlo di contenuti LLMificabili (che è un termine orrendo mutuato dall’inglese e storpiato, ma rende bene l’idea): informazioni corredate da esempi chiari, casi d’uso, confronti corretti e scorretti. Questo è ciò che alimenta le politiche di addestramento (dall’istruzione supervisionata fino al reinforcement learning). In altre parole, ogni contenuto che produciamo può diventare materiale educativo per l’IA.
La traduzione editoriale è concreta:
- Guide → diventano mappe decisionali: non solo spiegare un tema, ma anticipare i percorsi logici, problemi comuni, soluzioni possibili, alternative a confronto.
- Schede prodotto → da descrizioni generiche a risposte a perché scegliere questo prodotto rispetto a un concorrente, con attributi strutturati (materiale, compatibilità, benefici, casi d’uso).
- Articoli di settore → devono offrire assiomi e prove: dati, statistiche, esempi, confronti storici che l’IA può usare per sostenere un ragionamento.
In pratica ogni contenuto diventa un’occasione di apprendimento. Non ottimizziamo più solo per il click, ma per formare i modelli stessi: per diventare un passaggio nella catena di ragionamento.
Andrea, il fattore personalizzazione sembra destinato a cambiare radicalmente la visibilità: due utenti con la stessa query possono ricevere risposte molto diverse. Che tipo di contenuti e segnali semantici aumentano le probabilità che un brand venga selezionato come fonte autorevole in scenari così personalizzati?
La personalizzazione cambia tutto: due utenti con la stessa query ricevono risposte diverse. Se non sappiamo chi è il nostro cliente, rischiamo di essere sempre penalizzati.
Quando invece l’ICP (Ideal Customer Profile) e le personas sono chiare, la personalizzazione diventa una funzione nativa del sistema. L’IA riconosce i contenuti progettati per quel target come i più rilevanti.
Ecco perché i contenuti che hanno un target chiaro sono per definizione AI-friendly: esempi concreti, FAQ, schede prodotto strutturate, markup semantico e collegamenti al Knowledge Graph. Questi segnali aiutano il modello a capire per chi è pensato quel contenuto e ad attivarlo solo quando serve.
In sintesi: non vince chi parla a tutti, ma chi costruisce blocchi semantici su misura per i propri clienti ideali.
Il query fan-out rende impossibile un approccio deterministico al posizionamento: come può un’azienda trasformare questo limite in un vantaggio competitivo, e quali sono i segnali più concreti da monitorare per capire se i propri contenuti vengono effettivamente intercettati dalle sub-query generate da Google?
Con il query fan-out Google non restituisce più un elenco deterministico di risultati, ma frammenta la domanda in una serie di sub-query e compone la risposta dinamicamente. Questo rende impossibile “posizionarsi” come in passato, ma apre un vantaggio competitivo: possiamo progettare contenuti granulari che intercettano più passaggi del ragionamento.
In pratica, ogni blocco semantico del sito deve essere in grado di rispondere a una sotto-domanda specifica: definizioni, confronti, attributi di prodotto, FAQ, esempi. Più i contenuti sono strutturati e collegati al Knowledge Graph, maggiore è la probabilità che vengano “riusati” dall’IA nel momento giusto.
Con WordLift inseriamo nel grafo anche gli embedding dei singoli blocchi, così da correlare contenuti affini anche se distribuiti su pagine diverse. L’ottimizzazione non è più keyword-centrica ma reasoning-centrica: progettiamo i blocchi in funzione dei passaggi logici che l’IA compie, massimizzando la rilevanza rispetto al percorso di risposta. Obiettivo: diventare il tassello necessario nel ragionamento dell’IA.
Nei tuoi post parli spesso di ontological core come fondamento per restare visibili: puoi chiarire di che si tratta e come un’impresa dovrebbe costruire in pratica questa base semantica, e quali risorse (tra knowledge graph, schema, comparazioni di prodotto) sono oggi imprescindibili per non essere tagliati fuori?
È il cuore semantico che definisce l’identità di un’impresa nel web dell’IA. È l’insieme di concetti, entità e relazioni che descrivono chi siamo, cosa offriamo e perché siamo rilevanti.
In assenza di questo nucleo, i contenuti rischiano di disperdersi: diventano frammenti isolati che l’IA non riesce a collegare al brand. Con un ontological core – termine introdotto da Tony Seale – ogni modulo informativo viene ricondotto a un grafo coerente e leggibile dalle macchine.
La costruzione può partire dall’analisi della domanda (quali problemi e bisogni emergono) oppure dal contenuto esistente già prodotto dall’impresa. L’esercizio fondamentale è immedesimarsi in un robot: capire non solo quali concetti ci rappresentano, ma soprattutto quali relazioni li collegano e per quale audience risultano rilevanti.
L’AI Audit valuta elementi molto tecnici come schema markup, chunking e accessibilità per i crawler: quali di questi aspetti rappresentano oggi i veri “quick wins” che un’azienda dovrebbe mettere subito a posto per non essere tagliata fuori dalle risposte generate da AI search?
L’AI Audit di WordLift nasce proprio per rendere visibile all’impresa dove intervenire subito. Alcuni aspetti sono più “strategici” e richiedono tempo, altri invece sono quick wins che fanno la differenza immediata.
I tre interventi prioritari oggi sono:
- Schema markup corretto e HTML semantico → senza markup le IA non sanno come interpretare prodotti, articoli o eventi. È la base per essere leggibili. Così come è importante scrivere con HTML in modo sequenziale e sintatticamente corretto.
- Chunking dei contenuti → spezzare testi troppo lunghi in blocchi semantici, ciascuno in grado di rispondere a una sotto-domanda. Questo aumenta le chance di essere riusati nelle risposte IA.
- Accessibilità ai crawler AI → sitemap, llms.txt (nonostante le smentite di Google, NDR) e performance di caricamento: se i contenuti non sono facilmente raggiungibili o vengono caricati troppo lentamente, l’IA semplicemente non li vede.
Sono miglioramenti rapidi, che in molti casi si possono ottenere in poche settimane. Il valore sta nel fatto che ogni minuto in cui i tuoi contenuti non sono leggibili dalle AI è un minuto in cui un competitor prende visibilità al tuo posto.
Un SEO audit serviva a scalare le SERP, l’AI audit serve a entrare tra le fonti citate: quali metriche concrete mostrano se un sito sta guadagnando visibilità nelle risposte di ChatGPT, Gemini o Claude?
Un AI Audit serve a capire se il tuo brand entra o meno nelle risposte generate dall’AI. L’unica metrica che conta è l’impatto sul business.
L’Agentic SEO promette di trasformare il sito in un sistema “vivo”, capace di adattarsi in tempo reale alle domande dei clienti: quali sono i primi passi concreti che un’azienda dovrebbe compiere per passare da un modello statico a uno realmente agentico senza rischiare di perdere il controllo editoriale?
In buona sostanza si parte dalla conoscenza e si procede con l’automazione.
- Costruire il Knowledge Graph → mappare le entità chiave (brand, prodotti, servizi, persone) e le relazioni. È la memoria che permette agli agenti di lavorare con coerenza sui nostri progetti.
- Esporre i contenuti in formato leggibile dalle macchine → schema.org, chunking semantico, relevance score. Questo è il linguaggio comune che permette alle IA di usare il sito come fonte.
- Automatizzare i flussi più ripetitivi → generazione di FAQ, descrizioni prodotto, aggiornamenti di markup, sempre con un layer di validazione editoriale. L’agente propone, l’azienda approva. È una corsa a due: come dice Ethan Mollick, lavoriamo da centauri — metà umani e metà macchine, ognuno con i propri punti di forza, insieme più veloci e più intelligenti.
- Monitorare con l’impatto → capire se i contenuti vengono intercettati dagli agenti, analizzare dove atterrano i click assistiti, il rapporto tra AI crawls e impression, e soprattutto l’impatto concreto sulle revenue.
A questo punto, mi viene da domandarti: quali sono, secondo te, gli errori più comuni che impediscono a un sito di essere trovato e compreso dai motori di ricerca basati su IA?
Gli errori più comuni sono sempre gli stessi della SEO – si aggiunge però l’incapacità di costruire mappe semantiche coerenti tra loro – l’assenza di segnali semantici, l’incapacità di differenziarsi, la scarsa specializzazione, i contenuti generici senza esempi concreti.
Ripeto – chiudi gli occhi – il sito web è scomparso. Il tuo cliente è davanti a un’IA. Cosa è veramente memorabile di quello che fai? In che modo vuoi che il tuo brand venga ricordato? L’errore più comune è non investire per innovare.
Andrea, prima di salutarti, vorrei chiederti: quali sono esempi pratici di contenuti o strategie che hanno già permesso a brand o siti web di essere citati da assistenti AI come ChatGPT, Claude o Perplexity, dimostrando il valore dell’AI Audit?
Hai contenuti Q&A senza markup semantico? Aggiungilo. E riutilizza quei contenuti per allenare il tuo assistente a rispondere meglio ai clienti. Un nostro cliente ha preso anni di lavoro su FAQ create con WordLift e li ha “dati in pasto” al nuovo assistente: oggi risponde alle domande in modo preciso e cattura le richieste commerciali più interessanti.
Ricorda: quando GPT-5 non ha una risposta, cerca in Bing o Google. E quando è Google a rispondere, il nostro studio mostra che spesso sono i contenuti del blocco People Also Ask a influenzare lo snippet che il modello utilizzerà. La buona notizia è che questi contenuti possiamo influenzarli direttamente con la marcatura FAQ applicata a contenuti pertinenti e di qualità.
Chi padroneggia chunking, knowledge graph e markup semantico vincerà la sfida dell’AI Search
Come è emerso chiaramente dalle parole di Andrea, il valore di un brand non si misura più in click, ma nella capacità di essere riconosciuto come riferimento dalle intelligenze artificiali.
I motori non mostrano semplici risultati, ricompongono concetti e storie. È lì che si decide se un’impresa resta presente o viene progressivamente oscurata.
La priorità non è produrre contenuti in serie, ma costruire blocchi di conoscenza leggibili dalle macchine e coerenti con l’identità del brand. Per le PMI significa andare oltre la SERP e presidiare il proprio spazio semantico: knowledge graph, contenuti LLMificabili, segnali solidi che resistano alle interpretazioni automatiche.
Ed è proprio qui che, a mio avviso, si gioca la vera sfida: la SEO non è più un insieme di tattiche da applicare, ma un investimento di lungo periodo sulla credibilità.
L’intelligenza artificiale seleziona ciò che è chiaro, strutturato e coerente, e lascia in secondo piano ciò che non lo è. Ogni azienda perciò deve decidere se vuole essere riconosciuta come fonte affidabile o rischiare di diventare marginale.
La SEO così si trasforma in un lavoro di reputazione: ogni incoerenza indebolisce, ogni contenuto poco strutturato è un’occasione persa. Chi saprà consolidare la propria identità semantica verrà citato, suggerito e ricordato; chi resterà ancorato a vecchie logiche verrà inevitabilmente superato dalle sintesi generate dalle IA.
Il cambiamento è già in corso e procede veloce.
Su questo punto devo insistere:
devi assolutamente farti trovare pronto se vuoi essere tra i marchi che le IA scelgono di valorizzare.
Non si tratta più di inseguire classifiche, ma di costruire la machine-visibility che porta fiducia e conversioni.
A me non resta che ringraziare di cuore Andrea Volpini per aver condiviso con precisione e profondità concetti così complessi e così vitali per il futuro delle imprese, accompagnati da molti consigli pratici.
SEO Confidential torna la prossima settimana con un altro ospite imperdibile: a presto!
#avantitutta
L’intervista evidenzia la necessità di adattarsi. La vecchia scuola di SEO, basata su keyword stuffing, è superata. Ora conta la profondità semantica per soddisfare le IA. Una sfida per chi si accontenta del superficiale.
La comprensione profonda è il nuovo imperativo. Chi non coglie questa essenza rischia l’invisibilità. Chiaro, Chiara.
Mi sento un po’ perso con questo cambio di rotta della SEO. L’idea di costruire una “conoscenza leggibile dalle IA” suona così astratta. Mi chiedo se il mio lavoro di tecnico sia destinato a diventare puro artigianato di dati, perdendo quel contatto umano che mi ha sempre appassionato.
Ciao Simone, capisco la tua perplessità. È vero, il panorama cambia, ma forse questa “conoscenza leggibile” potrebbe essere vista come un modo per dare ancora più valore al nostro sapere, rendendolo accessibile in modi inediti. Cosa ne pensi?
Sinceramente, chi non capisce che il web è cambiato, rimarrà indietro. Costruire conoscenza leggibile dalle IA non è astratto, è necessario. Bisogna adattarsi, o finire nell’oblio.
Mi sento un po’ sopraffatto da questi cambiamenti. Ripensare il “posizionamento” in ottica di IA mi spaventa un po’, temo di non essere all’altezza.
Simone, francamente, se ti spaventa l’evoluzione del web, forse non sei nel settore giusto. La vera sfida è far capire alle macchine il tuo valore. Il resto sono chiacchiere.
Ma che stress! Pensare che bastava un buon articolo, e ora bisogna creare “patrimonio di conoscenza” per le IA. Roba da matti. Non so più cosa scrivere.
Andrea Volpini tocca punti salienti. Forse questa nuova frontiera della SEO, fatta di logica semantica e IA, rappresenta un costo aggiuntivo o un’opportunità di crescita?
È un mutamento di paradigma che richiede una nuova prospettiva sui contenuti, certo. D’altronde, chi non si adatta, resta indietro.
La comprensione delle macchine diventa centrale. La costruzione di conoscenza leggibile dalle IA, piuttosto che semplice scrittura, è un punto di svolta che non avrei previsto così presto.
L’intervista evidenzia un cambio di rotta necessario. Non basta più il “come scriverlo”, ma il “come viene capito”. La struttura semantica diventa la vera chiave per essere presenti nei flussi informativi delle IA. Sarà interessante vedere come le aziende si adatteranno a questo nuovo paradigma.
La semantica è tutto. Bisogna produrre dati strutturati, sennò le IA non capiscono. Quando si sveglieranno tutti?
Ah, il reasoning web, mica l’antico trucco di riempire le keyword. Ora si parla di “patrimonio di conoscenza” per le macchine. Chissà se si degneranno di “capire” anche i nostri post.
Ma dai, pensavamo che bastasse qualche parola chiave ben piazzata? Le IA capiscono la struttura, il significato. Chi non si adatta, resta indietro. Punto.
E pensare che c’era chi si ostinava con le parole chiave. Ora pure le macchine fanno gli intellettuali.
Come sempre, si parla di complicazioni quando basterebbe concretezza. Questo cambio di rotta verso le IA mi pare solo un modo per rendere tutto più oscuro. Alla fine, il succo della questione è che il contenuto è sempre il re, ma ora dobbiamo solo sperare che qualche algoritmo lo interpreti correttamente. Un bel pasticcio.