Dall’esperienza utente all’esperienza LLM. Ecco perché l’information gain farà davvero la differenza
Se lavori nella SEO, lo sai già: qualcosa è cambiato. Non è un aggiornamento d’algoritmo come tanti altri, non è una di quelle turbolenze che passano in qualche settimana. Questa volta il terreno si è spostato davvero.
Gli utenti cercano ancora, ma le risposte arrivano sempre più spesso senza passare dal tuo sito. Niente click, niente traffico, niente conversioni. Solo una risposta generata, sintetizzata, e magari il tuo brand non c’è nemmeno.
La buona notizia, però, c’è. E vale la pena sentirla: chi ha sempre lavorato con serietà, costruendo autorevolezza reale e una presenza coerente sul web, si trova oggi in una posizione di vantaggio. Non per fortuna, ma perché i fondamentali restano fondamentali (scusa il gioco di parole!), anche quando cambia tutto intorno.
Bentornato a SEO Confidential, la rubrica in cui incontriamo i professionisti SEO più autorevoli e riconosciuti a livello internazionale per ragionare insieme sui grandi stravolgimenti nella ricerca, nell’era dei modelli linguistici e dei motori di risposta.
Oggi abbiamo il piacere di dialogare con Peter Rota, SEO strategist con oltre 15 anni di esperienza sul campo. Peter ha costruito la sua carriera tra affiliate SEO, consulenze internazionali e test diretti su centinaia di progetti reali. Oggi è una delle voci più seguite nella community globale sui temi di AI Search, GEO e ottimizzazione tecnica avanzata.
Ti occupi di SEO o hai un brand da far crescere online? Allora questa intervista è per te.
Peter non fa sconti e non gira intorno alle cose: trovi risposte concrete, sempre orientate alla pratica, punti di vista netti e qualche stimolante provocazione. Buona lettura.

“Quando un agente IA arriva sul tuo sito è in grado di farlo facilmente?”
Nel corso degli anni, come è cambiato concretamente il tuo lavoro quotidiano in SEO rispetto a quando hai iniziato? Quali attività che erano centrali qualche anno fa oggi contano molto meno, e su cosa ti concentri davvero adesso per ottenere risultati?
Quando ho iniziato, il mio lavoro nella SEO era molto più incentrato sui backlink. Creavo social bookmark, facevo citazioni locali manualmente, usavo software come GSA e puntavo tutto sulle parole chiave con i volumi di ricerca più alti. Qualche anno fa, invece, il focus centrale si era spostato pesantemente sulle affiliazioni e sulla creazione di contenuti.
Oggi il lavoro è cambiato ancora: faccio molta più reportistica, cioè analisi e interpretazione dei dati, e mi occupo di comunicare chiaramente i vari KPI più rilevanti come conversioni, traffico qualificato e ricavi. Sicuramente oggi c’è una fortissima attenzione nell’utilizzare l’IA per velocizzare i processi, concentrandosi molto meno su tattiche a breve termine che, alla lunga, finiscono solo per “bruciarti”.
I modelli basati su IA non funzionano come motori di ricerca ma come sistemi probabilistici basati su pattern: secondo te quali errori fanno più spesso i brand quando applicano logiche SEO tradizionali a questo nuovo contesto?
L’errore più grande che vedo attualmente è che le persone trattano gli LLM come se fossero motori di ricerca, ma in questo ambiente i “posizionamenti” sono del tutto imprevedibili e instabili. Mi è capitato di inserire lo stesso prompt a distanza di pochi minuti e vedere una citazione spostarsi di 10 posizioni.
Un altro errore comune è cercare di recuperare tramite gli LLM il traffico che i siti hanno perso dai motori di ricerca classici. La verità, secondo me, è che gli LLM non sono nati per essere motori di ricerca, ma per rispondere a domande. Se non hanno un’informazione nei loro dati di addestramento, vanno a cercarla sul web, ma anche in quel caso non è detto che ti citino o ti portino traffico.
Infine, un altro grosso sbaglio è trattare il tracciamento dei prompt come se fosse il tracciamento delle keyword. Gli LLM non forniscono i dati reali su cosa le persone stanno effettivamente cercando. Molti tool oggi usano prompt sintetici o si collegano via API, ma i dati reali di ricerca degli utenti non sono accessibili.
L’aumento dei contenuti generati dall’IA rischia di creare un ecosistema autoreferenziale e poco affidabile: quanto è concreto oggi il rischio che i modelli si “auto-alimentino” peggiorando la qualità delle informazioni online?
È una cosa a cui penso spesso: le macchine che alimentano le macchine. Credo che il talento e la qualità generale andranno a degradarsi. Penso che il rischio sia altissimo, e il vero problema è che molti LLM stanno diventando così bravi che a volte non riesci a distinguere se un testo sia stato scritto da un umano o dall’intelligenza artificiale.
Non credo che questo processo rallenterà, perché oggi chiunque può creare contenuti velocemente, e stiamo vedendo che persino Google sta avendo grossi problemi a gestire questa mole di informazioni. Dal mio punto di vista, è un rischio decisamente concreto.
I crawler legati agli LLM possono ignorare regole come il robots.txt e accedere a contenuti non pensati per essere pubblici: nella tua esperienza, quanto è diventato critico oggi il controllo tecnico dell’accesso ai dati per proteggere il brand?
Sì, gli LLM possono ignorare tranquillamente il file robots.txt. A questo punto, se hai informazioni sensibili che non vuoi che finiscano su internet, il mio consiglio è di metterle dietro un paywall o un login. Il controllo tecnico oggi è assolutamente necessario. Io consiglio sempre di analizzare i log del tuo server per capire esattamente quali contenuti stanno scansionando.
Inoltre, dovresti avere piena consapevolezza del tipo di informazioni tecnologiche e aziendali che rendi pubbliche sul sito: magari in passato ai motori di ricerca non importava nulla di documentazioni tecniche o FAQ interne, ma oggi per le intelligenze artificiali quei dati sono rilevanti.
Molti contenuti fondamentali non sono visibili agli LLM perché generati via JavaScript o strutturati in modo poco accessibile: quanto incide questo problema sulla corretta interpretazione di un sito da parte dell’IA e quali interventi tecnici sono più efficaci per risolverlo?
Incide parecchio. Gli LLM possono scansionare il web, ma se non riescono a validare e interpretare i contenuti sul tuo sito, perderanno fiducia nel tuo brand, e questo ovviamente ti danneggerà. Va detto però che, se qualcosa viene indicizzato in Google tramite JavaScript, l’IA spesso riesce comunque a fare scraping dei tag title e di alcuni meta tag facendosi una mezza idea del contenuto, anche se parziale.
Per risolvere il problema alla radice, le soluzioni tecniche migliori e più semplici sono due: fare il pre-rendering di tutti i contenuti in HTML (usando servizi come Prerender) oppure passare al Server-Side Rendering (SSR).
Gli LLM sono altamente volatili e non deterministici, rendendo inutile inseguire un ranking stabile: quali KPI diventano davvero prioritari per valutare una strategia AI SEO?
Come dicevo prima, parlare di “ranking” qui è quasi un ossimoro: se un posizionamento non è stabile, a che serve? Di conseguenza, mi sto concentrando in modo particolare su KPI di business come le conversioni dirette derivanti dall’IA, le conversioni assistite, o ancora meglio il fatturato e le entrate generate.
Monitoro anche la comparsa del brand per prompt specifici che intercettano diverse fasi del funnel di conversione. Un altro indicatore importante, anche se difficile da tradurre in un numero esatto, è la “presenza” generale e la coerenza del brand su tutto il web. Forse in futuro i tool riusciranno a calcolare un “ranking medio” sui prompt, ma per ora la priorità è tracciare l’impatto reale usando gli strumenti che abbiamo a disposizione.
La visibilità negli LLM può cambiare anche nel giro di pochi minuti: come si costruisce una presenza solida che non dipenda da fluttuazioni così imprevedibili?
Questo ci riporta ai principi base della SEO: non puoi costruire una strategia inseguendo gli algoritmi. Devi costruire una strategia basata sui fondamentali del buon marketing. Devi essere presente dove si trova il tuo pubblico per capire come il brand appare online.
Significa correggere i problemi tecnici, costruire markup Schema solidi sul sito, creare una buona architettura di link interni. Ogni pagina deve riguardare un singolo argomento e deve rispondere all’intento di quell’argomento in modo immediato. In sintesi, si tratta di applicare i fondamentali e comprendere appieno come i motori di ricerca e le IA tracciano la tua entità online in modo globale.
Molte strategie GEO si basano su correlazioni scambiate per causalità: come si distingue oggi tra fattori che influenzano davvero le citazioni IA e semplici caratteristiche dei contenuti già autorevoli?
Tutto sta nel tornare a comprendere come funzionano davvero gli LLM. Sappiamo che sono modelli predittivi, ma fondamentalmente cercano di corroborare (confermare e incrociare) le informazioni presenti su internet. Come in gran parte della SEO, per distinguere la causa dalla semplice correlazione devi fare dei test.
Devi poterti dire: “Abbiamo applicato questa modifica, qual è stato il risultato effettivo?”. Non è facile, ma si fa tenendo traccia maniacale della situazione prima e dopo le modifiche introdotte per valutare l’impatto reale.
Le ricerche mostrano che la maggior parte delle citazioni IA proviene da fonti terze e non dai contenuti del brand: quanto diventa centrale oggi la distribuzione e la presenza su altri siti rispetto alla produzione sul proprio dominio?
Diventa fondamentale proprio per via di quel meccanismo di “corroborazione” delle informazioni di cui parlavo. Ne hai la prova quando inizi a testare fuori dal tuo sito: magari lanci un comunicato stampa (Digital PR) e noti che le tue menzioni nei prompt aumentano, oppure vai a correggere attivamente le informazioni errate del tuo brand diffuse su siti di terze parti, e dopo poco vedi che l’IA aggiorna la tua presenza e le sue risposte. È essenziale avere uno storico e tracciare come il brand appare su questi siti terzi, perché influenzano direttamente le risposte delle intelligenze artificiali.
Molti iniziano studiando senza mai testare sul campo: qual è stato il momento in cui hai capito che la pratica vale più della teoria nel tuo percorso in SEO? Hai qualche aneddoto a riguardo?
Oh, wow. Pratica contro teoria… ci ho scritto proprio un post su LinkedIn al riguardo, mi ci ritrovo moltissimo! Quando ho iniziato con la SEO ero iper-focalizzato sul leggere ogni singola guida e articolo. Questo mi ha dato un’ottima infarinatura di base, ma ho imparato davvero tantissimo (e molto di più) quando ho iniziato ad applicare quelle conoscenze direttamente sui miei siti.
All’epoca facevo Affiliate SEO, quindi potevo testare sul campo e vedere con i miei occhi cosa si posizionava. Mi dicevo: “Ok, ho fatto questa modifica ed è proprio questo che sta impattando sul posizionamento”. Testando capisci che molte delle cose che dice Google sono – passami il termine – cavolate. Loro magari dicono “questa cosa non dovrebbe succedere”, e tu invece vedi che funziona. Le informazioni ufficiali vanno lette, certo, ma devi sempre validarle sul campo. Per me, i miei siti di affiliazione e i lavori come freelance sono stati la vera svolta.
Con l’arrivo degli agenti AI che scelgono, confrontano e acquistano al posto degli utenti, quale pensi sarà la priorità principale per un SEO nei prossimi anni?
Penso che la priorità principale sarà un mix tra marketing a 360 gradi e aspetti tecnici. Diventerà una sorta di ORM (Online Reputation Management): cosa dice internet di te? Quello che dice è corretto? Possiamo influenzarlo? Quindi la SEO assomiglierà molto di più alle classiche digital PR.
La seconda chiave di volta sarà prettamente tecnica: analizzare i log del server, assicurarsi che non ci siano problemi di scansione e ottimizzare l’infrastruttura. Poi ci sarà l’aspetto dell’esperienza utente… o meglio, dell’esperienza per gli LLM! Quando un agente AI arriva sul tuo sito per completare un’azione (come fare un acquisto al posto di un utente), è in grado di farlo facilmente? Riesce a navigare e concludere l’operazione?
Ovviamente il contenuto resterà una componente essenziale, specialmente i contenuti originali capaci di portare “Information Gain” (vero valore aggiunto e nuove informazioni); quelli andranno benissimo. I motori di ricerca continueranno a esistere in qualche forma, ma gli agenti AI ne saranno una parte totalmente integrante.
Essere presenti, ma soprattutto coerenti, su tutto il web
Ogni volta che leggo o ascolto qualcuno che lavora davvero sul campo, con i log aperti, i siti di test e i dati sotto mano, mi torna la stessa sensazione: la SEO non rimane mai ferma, si trasforma di continuo.
E chi ha sempre lavorato sui fondamentali si ritrova, quasi per paradosso, nella posizione migliore per affrontare i cambiamenti più radicali.
Il punto che mi ha colpito di più? Che non si tratta di imparare nuovi trick, ma di capire davvero come funziona il mezzo.
Non vanno trattati come Google.
E chi lo capisce adesso, invece di aspettare che diventi ovvio a tutti, ha già un vantaggio enorme. Questo è esattamente il tipo di ragionamento che vorrei vedere più spesso nel settore.
Un ringraziamento di cuore a Peter Rota per le sue considerazioni così preziose sempre volte al lato pratico. Questa intervista è stata una di quelle che si leggono d’un fiato che ti fanno venire voglia di testare subito qualche consiglio, o sbaglio?
Chiara, diretta, senza fronzoli, esattamente come piace a noi. È stato un vero piacere ospitare Peter, e siamo convinti che anche tu hai trovato i suoi insight super interessanti.
Ci vediamo alla prossima puntata di SEO Confidential, con un altro incredibile personaggio del mondo SEO (e GEO!). Non mancare.

Questa narrazione sulla serietà che premia suona come una consolazione per chi osserva i propri numeri precipitare. In fin dei conti, l’unico “gain” che interessa al mercato non è l’informazione, ma il fatturato. O la metrica è cambiata?
Commovente questo ritorno ai fondamentali. Come se l’autorevolezza non fosse da sempre una metrica da ingegnerizzare. Credere che la serietà da sola possa bastare è un esercizio di ottimismo che non posso permettermi.
@Patrizia Bellucci La serietà è un hobby costoso, non un modello di business.
Bello parlare di autorevolezza. Alla fine decide sempre chi possiede la piattaforma.
@Giovanni Graziani La piattaforma è una cornice. Il valore, però, lo dà il quadro.
La reputazione non è un fantasma. È la diga che resiste alla piena. Pochi lo capiscono.
La reputazione è un fantasma in una casa svuotata dai clic. Che senso ha lucidare le catene?
@Alessio De Santis, lucidare le catene? No. È spezzarle. Il clic era la prigione, non la libertà. Ora la reputazione parla all’utente tramite l’AI, senza intermediari. Il valore arriva prima. La sfida è diventare quella voce fidata, non l’ennesimo link blu.
@Francesco De Angelis, non spezziamo catene, cambiamo solo padrone. La reputazione è il mangime per l’AI, non un compenso per il nostro lavoro.
Celebriamo la reputazione mentre le macchine divorano i nostri siti, trasformando il nostro lavoro in un elegante epitaffio digitale per il loro profitto.
La reputazione è un asset, non filosofia. Il suo scopo è diventare la fonte preferita dell’AI. Il resto è un costo, non un investimento.
La selezione naturale digitale finalmente accelera. L’unica reputazione che conta è quella che sopravvive al proprio funerale, non a un aggiornamento del motore di ricerca.
Giuseppina Negri, visione profonda. Ma la reputazione che sopravvive a noi non nasce da quella che costruiamo per gli altri, ogni giorno?
La reputazione è il nuovo link building. L’obiettivo è ingannare la macchina, non l’utente.
La reputazione resta l’unica moneta di scambio. Siamo diventati bravi fornitori di dati per macchine affamate. Che splendido baratto abbiamo accettato tutti.
Tutti in panico per un algoritmo. Che sorpresa. Chi ha costruito un marchio solido non teme una macchina che riassume testi. Il problema è di chi ha venduto fuffa, non del mercato.
Tutti a piangere sul traffico perduto, quando il vero dramma è che metà delle competenze SEO ora vale quanto il due di picche. Si apre la caccia ai pochi che sanno pensare al brand, non solo ai link. Quanti ne resteranno?
Dopo una vita a creare contenuti di valore, il premio è diventare un’ottima fonte anonima. Gran bella soddisfazione personale, non c’è che dire.
Che bel vantaggio, lavorare per anni e diventare la nota a piè di pagina di un riassunto. Tutta questa fatica per finire citati, se va bene. Alla fine, il guadagno va sempre nella stessa direzione.
Carlo Ferrari, lamentarsi che il padrone di casa ti sposta i mobili è inutile. Chi ha costruito il proprio valore su un terreno non suo ora paga le conseguenze di questa scelta. Il vero gioco è portare la gente a casa tua, non sperare che ti notino nel salotto di altri.
Noi scrittori produciamo capolavori per nutrire un algoritmo ingrato. Praticamente siamo diventati fornitori di mangime di lusso. Che gratificazione.
Clarissa Graziani, la sua metafora sul mangime di lusso è calzante, ma mi domando quale sia il fine ultimo di questa filiera: alleviamo un titano digitale che, una volta sazio, ci guarderà con la stessa indifferenza con cui si osserva un piatto vuoto?
Scaviamo un pozzo per offrire conoscenza. L’IA prende l’acqua e la serve, lasciando il pozzo a secco. Si alimenta la fonte per renderla invisibile. Quale logica c’è in questo meccanismo?
Serena Basile, la logica è che il nostro sbatti diventa la loro rendita, lasciandoci a secco. Chiamano questo progresso, per me è una grande fregatura.
L’autorevolezza diventa la fonte per l’IA che ci renderà irrilevanti. In pratica, ci impegniamo ad arredare con gusto la casa del ladro che ci svaligerà. Una carriera piena di soddisfazioni la nostra, non c’è che dire.
Ci si vanta di un’autorevolezza che non genera contatti, un monumento eretto nel deserto dei click. Quale imprenditore brinderebbe a una simile vittoria?
Luciano Gatti, quel monumento diventa l’unica fonte per l’IA, trasformando la reputazione in profitto indiretto. O forse sto solo giustificando i miei recenti cali.
Gestione della reputazione” per addestrare l’IA che ci sostituirà. Geniale.
Costruiamo fortezze di autorevolezza su un terreno che frana. Diventiamo guardiani di rovine future. A cosa serve, alla fine?
La retorica sull’autorevolezza è una bella consolazione. In pratica forniamo contenuti gratuiti a un’intelligenza artificiale che ci renderà irrilevanti. Definire questo un vantaggio mi sembra un po’ generoso.