SEO Confidential – La nostra intervista esclusiva a Kristine Schachinger su “Agent Readiness” e allucinazioni degli LLM

Un confronto sui segnali che rendono un sito leggibile dalle macchine, sui limiti nel controllo delle allucinazioni e sulla necessità di tornare ai fondamentali per evitare che l’IA distorca la narrazione del tuo brand

Premi play e ascolta di cosa tratta l’intervista a Kristine Schachinger

Il traffico organico crolla e le logiche che governano la ricerca non sono più le stesse. Oggi i tuoi potenziali clienti non si limitano a scorrere la pagina di Google: interrogano agenti IA, LLM e motori di risposta.

Ma cosa succede se queste nuove intelligenze artificiali ignorano il tuo business o, peggio ancora, “allucinano” inventando di sana pianta informazioni che distruggono la reputazione del tuo brand e frenano le vendite?

Per affrontare questi temi con pragmatismo e senza false promesse, in questo episodio di SEO Confidential ospito Kristine Schachinger.

Consulente di livello mondiale specializzata in Technical SEO e LLM Visibility Strategies, Kristine è anche la voce dell’autorevole podcast Webcology, dove, insieme a Jim Hedger, racconta alle aziende e ai professionisti le dinamiche reali che fanno vendere o fallire un progetto nel mondo del web marketing.

In questa intervista andiamo dritti al sodo. Kristine ci svela quali errori strutturali spingono Google a “scaricare” il tuo sito, come rendere il tuo brand raccomandabile dagli agenti IA (Agent-Ready), e perché molti degli attuali tracker di “visibilità AI” vendono solo fumo.

Ma soprattutto, analizzeremo concretamente come difendere la reputazione e i lead della tua azienda dalle allucinazioni dei modelli linguistici.

Una lettura imprescindibile per smettere di rincorrere le macchine e iniziare a guidarle.

Kristine Schachinger intervistata dal SEO Roberto Serra

“I motori di ricerca restano la fonte principale: la base di tutto resta la SEO”

Se i core update funzionano davvero come “spazzini” che eliminano siti costosi da crawlare, quali segnali tecnici guarderesti per capire se un dominio sta diventando un “peso” per Google e rischia di essere scaricato dagli agenti di crawling?

Credo sia così, perché quando un sito viene colpito in modo significativo da un core update, nella maggior parte dei casi il problema è grande, evidente e presente da molto tempo, anche se in precedenza Google sembrava non attribuirgli particolare peso.

Se questi aggiornamenti funzionano davvero come “spazzini” che eliminano i siti troppo costosi da crawlare, i segnali tecnici da osservare sono quelli che indicano inefficienze strutturali persistenti: problemi tecnici estesi, architettura disordinata, difficoltà di scansione o di rendering, elementi che rendono il sito complesso da elaborare per gli agenti di crawling.

L’impatto è rilevante perché i core update incidono su tutti i principali segnali di ranking. Per questo motivo, nel mio approccio, intervengo sempre prima sugli aspetti tecnici. L’esperienza mostra che, sistemando correttamente la parte tecnica, spesso si ottiene un recupero molto vicino al 100% ancora prima di passare al livello successivo di lavoro.

Nel momento in cui gli assistenti stanno diventando “summarization engines” e scelgono fonti da sintetizzare, cosa rende un sito più “ingestibile” dagli agenti rispetto ai competitor: qualità tecnica, struttura semantica, oppure reputazione esterna, e come si verifica senza inseguire metriche di visibilità che restano aleatorie?

Il processo che chiamiamo AI Search nasce dal RAG, una tecnica pensata per “ancorare” il motore di testo predittivo e ridurre le allucinazioni. Da qui si è sviluppata la cosiddetta AI Search. Non esiste un metodo che garantisca la presenza nelle citazioni, a meno che Google non integri i Core Ranking Signals in AIO e AI Mode. Vengono già utilizzati gli stessi indici, ma l’elenco delle citazioni che vediamo è incompleto e casuale.

Alcuni elementi che possono aiutare sono:

  • struttura della pagina chiara (Hns);
  • dati strutturati dettagliati (schema);
  • porre domande e fornire risposte (funzione legata all’elaborazione del linguaggio naturale);
  • utilizzo corretto delle entità;
  • eccellente SEO tecnica e assenza o uso minimo di JavaScript nella parte di creazione dei contenuti;
  • paragrafo iniziale costruito secondo la piramide rovesciata, perché la finestra di contesto degli LLM è limitata.

Gli agenti non “rankano” ma selezionano documenti per qualità e leggibilità. Per capire quali interventi tecnici danno l’impatto più rapido sulla probabilità di essere scelti come fonte, consiglio la lettura di questo interessante studio di SparkToro. Credo possa rivelarsi molto utile!

Hai detto che i tracker di “visibilità LLM” rischiano di raccontare una storia perché citazioni e fonti cambiano a parità di prompt: come imposteresti un audit serio di “agent readiness” che un’azienda possa ripetere ogni mese con indicatori verificabili e non narrativi?

L’agent readiness si basa sui fattori già citati. Non può esserci alcuna garanzia di citazione finché i segnali di ranking non vengono integrati negli LLM di Google.

Va ricordato che queste fonti generano pochissimo traffico. Concentrarsi su questo a scapito della SEO tradizionale è controproducente, perché i motori di ricerca restano la fonte principale delle citazioni e Google continua a inviare quasi tutto il traffico organico. La base di tutto resta la SEO, con piccoli aggiustamenti nelle priorità.

Dal tuo punto di vista, qual è il segnale tecnico più sottovalutato che oggi fa escludere un sito dai flussi di sintesi degli agenti, pur in presenza di contenuti corretti: rendering incompleto, costi di crawling oppure un’architettura interna confusa?

Per essere interpretate correttamente dai parser (un software che legge il codice di una pagina web e ne interpreta la struttura per renderla comprensibile ai motori di ricerca e ai sistemi IA, N.d.R.) di machine learning, le pagine devono essere tecnicamente pulite, con un markup HTML corretto e ben strutturato.

È fondamentale limitare al minimo l’uso di JavaScript, soprattutto negli elementi centrali del contenuto, perché tutto ciò che è essenziale dovrebbe essere immediatamente leggibile e processabile dalle macchine senza dipendere da rendering complessi.

Se l’MCP diventa lo standard e gli agenti IA smettono di “leggere” i siti come fa un umano, quali sono i primi segnali tecnici che indicano che un brand è davvero agent-ready e non solo “ben messo” lato SEO tradizionale?

Gli agenti AI già oggi non leggono i siti come farebbe una persona: analizzano struttura, segnali e dati in modo automatizzato. Più che stabilire una gerarchia rigida tra segnali tecnici, conta che il sito sia pienamente comprensibile e processabile dalle macchine, con una struttura chiara e un codice pulito.

Resta comunque determinante la digital PR, perché la presenza e l’autorevolezza esterna incidono in modo significativo sulla probabilità di essere citati.

Nell’era della “Personal Intelligence”, dove la risposta cambia in base a cronologia, email e contesto, qual è il modo più serio per misurare la visibilità reale di un brand senza vendere “share of voice” come fumo: quali segnali osservare, con che frequenza e come collegarli a lead e vendite?

Non è possibile tracciare con precisione elementi che non compaiono in un elenco completo e stabile di citazioni, anche perché molte di esse non sono visibili. Esistono tecniche black hat che possono aumentare le menzioni all’interno di un LLM, ma per ottenere una vera citazione è indispensabile che il contenuto della pagina sia strettamente coerente e pertinente rispetto alla query.

Nella ricerca organica questo meccanismo è noto come neural matching ed è uno dei fattori che determinano l’ordinamento finale dei risultati.

Dal punto di vista operativo, il referral tracking diventa centrale. Google Search Console può offrire alcuni indizi utili per ricostruire parte dei flussi di traffico, mentre l’analisi dei file di log consente di comprendere in modo più accurato chi accede al sito e con quale frequenza.

LLM e motori di risposta rischiano di creare una sorta di marchio parallelo, confondere il pubblico e minare la reputazione del brand. Cosa si può fare per difendersi ed evitare che le IA ci raccontino in modo errato e “allucinato”?

Nessuno può eliminare del tutto le allucinazioni, perché derivano dalla struttura matematica su cui si basano i modelli linguistici. La letteratura scientifica lo spiega con chiarezza: questi sistemi generano testo in modo predittivo, non comprendono ciò che scrivono, ma individuano schemi nei dati di addestramento e restituiscono le sequenze di parole statisticamente più probabili.

È possibile intervenire solo in parte su questo comportamento, ad esempio regolando parametri come la temperatura, ma soltanto se si ha il controllo diretto del modello. In tutti gli altri casi, il margine di intervento resta molto limitato.

Quali sono i segnali che aumentano le probabilità che una versione corretta prevalga sulla disinformazione: markup e dati strutturati, coerenza tra pagine, aggiornamento frequente, autorevolezza off-site, o presidio di piattaforme dove nascono le narrazioni (es. forum e social)? In pratica, come si progetta una difesa anti-allucinazioni che sia misurabile e ripetibile?

Come sappiamo, non esiste un metodo che consenta di eliminare completamente le allucinazioni. È possibile però ridurne l’incidenza attraverso interventi come il training mirato, l’integrazione di sistemi RAG e l’introduzione di guardrail, ma solo se si ha il controllo diretto del modello.

In caso contrario, il margine di intervento è molto ridotto, perché il sistema genera risposte sulla base dei dati su cui è stato addestrato e delle probabilità statistiche che ne derivano.

Si può tentare di influenzare indirettamente il risultato pubblicando contenuti su fonti pubbliche che si sa essere utilizzate nei processi di addestramento, oppure creando contenuti evergreen intercettati da LLM non collegati ai motori di ricerca. Questa strategia, però, non produce effetti concreti su ecosistemi come Google o Bing.

L’illusione del controllo e la cruda realtà: come blindare il tuo brand nell’era degli Agenti IA

Tirando le fila di questa chiacchierata con Kristine Schachinger, emerge un quadro chiarissimo: la corsa ai ripari contro l’Intelligenza Artificiale non si vince inseguendo nuove metriche di vanità, ma tornando ai fondamentali tecnici con una rigidità quasi spietata.

Codice pulito, riduzione drastica di JavaScript e un’architettura informativa a prova di macchina.

La verità nuda e cruda è che oggi rincorrere la “visibilità LLM” sperando in chissà quale hack segreto è un errore strategico che brucia solo budget. Le allucinazioni delle macchine rappresentano un rischio spaventoso e concreto per la reputazione e le vendite di qualsiasi brand, ma la nostra difesa non passa per tool di tracciamento che spesso vendono solo illusioni.

La vera Agent Readiness è ingegneristica: i motori di risposta non colgono le sfumature, ma processano strutture. Se vuoi che l’IA diventi un alleato che consiglia il tuo business e non un generatore di disinformazione, devi smettere di assecondare l’hype e dotare il tuo ecosistema digitale di fondamenta tecnicamente inattaccabili e di un’autorevolezza esterna indiscutibile.

Ringrazio di cuore Kristine per aver condiviso la sua competenza, spazzando via molta della fuffa che circola oggi nel settore.

L’appuntamento è alla prossima puntata di SEO Confidential.

Continua a seguirci: il nostro viaggio negli ingranaggi della ricerca continua.

Roberto Serra

Mi chiamo Roberto Serra e sono un digital marketer con una forte passione per la SEO: Mi occupo di posizionamento sui motori di ricerca, strategia digitale e creazione di contenuti.

33 commenti su “SEO Confidential – La nostra intervista esclusiva a Kristine Schachinger su “Agent Readiness” e allucinazioni degli LLM”

  1. Leggo solo lamentele sulla tecnologia. La SEO morta, le macchine impazzite. È il solito canto del cigno per chi non sa costruire un brand solido. La mia domanda è: quando comincerete a lavorare seriamente sulle fondamenta del vostro nome?

  2. Enrico Romano

    La SEO è morta, rassegnatevi. Ora il gioco è un altro: controllo o essere controllati. Mentre discutete di segnali, l’IA riscrive la vostra storia e vi secca le vendite. Bisogna agire, non parlare. Il resto è fuffa per consulenti.

  3. Sabrina Coppola

    Pretendere di governare le allucinazioni degli LLM è come provare a pettinare un gatto bagnato: un’impresa nobile ma destinata a lasciare cicatrici.

  4. Renato Graziani

    Discutere di segnali per le macchine è un esercizio sterile. Il brand si difende con una narrazione forte, non con accorgimenti tecnici.

  5. Claudia Ruggiero

    Più che preoccuparmi della sorgente inquinata, mi chiedo come rendere il mio brand un dato di fatto per la macchina. Se la narrazione è distorta, significa che i nostri segnali sono deboli, trasformandoci in un’anomalia statistica da correggere. Il nostro lavoro è diventare noiosamente prevedibili?

    1. Walter Benedetti

      Claudia, non “noiosamente prevedibili”, ma inattaccabili. La macchina premia la coerenza, non l’estro. Il compito è costruire un monolite, non un castello di sabbia.

    1. Isabella Sorrentino

      Elena, mi sfugge come un “segnale pulito” possa rimanere tale dopo essere stato processato da macchine che per definizione amalgamano fonti, senza distinguere la qualità. È un’illusione consolatoria per chi deve pagare le fatture, immagino.

  6. Walter Benedetti

    Queste macchine producono nebbia da fonti inquinate. È inutile tentare di diradare la nebbia a valle. La reputazione si protegge governando la sorgente, non inseguendo i suoi fantasmi.

    1. Carlo Ferrari

      Walter, la sorgente è l’intero web, un pozzo inquinato. Governarlo è impossibile. Si paga per costruire un argine, non per bonificare la palude. È una battaglia persa in partenza, ma va combattuta lo stesso per limitare i danni.

  7. Carlo Benedetti

    Stiamo costruendo narratori inaffidabili a cui affideremo la reputazione guadagnata in decenni di lavoro.

    1. Alessandro Lombardi

      Carlo Benedetti, quindi la soluzione a narratori inaffidabili sarebbe pagare consulenti per insegnargli a mentire con più grazia su di noi? Mi sfugge la logica nel delegare la reputazione aziendale a una tecnologia la cui funzione principale, a quanto pare, è inventare.

  8. Alessandro Parisi

    Ci affanniamo a rendere i brand “leggibili” alle macchine, ma non mi è chiaro se lo scopo sia farci capire o solo nascondere meglio il fatto che non c’è nulla da comunicare.

    1. Roberta De Rosa

      @Alessandro Parisi, stiamo lucidando la copertina di un libro vuoto, sperando che la macchina ammiri la rilegatura senza accorgersi che dentro non c’è scritto nulla. Un bel esercizio di stile per nascondere il vuoto.

  9. Renato Graziani

    L’allucinazione della macchina rivela solo il vuoto del brand. Un’identità debole diventa preda di qualsiasi narrazione. Perché ci si sorprende ancora di questo?

    1. Elisa Marchetti

      @Renato Graziani La sorpresa è una recita. La macchina non fa che amplificare un’inconsistenza già presente, trasformando il fumo del brand in un incendio di sciocchezze. Un epilogo prevedibile per chi non ha mai avuto una storia.

  10. Walter Benedetti

    Si teme l’eco distorto della macchina. Una voce chiara e autorevole, però, non teme alcuna eco. La solidità dei contenuti è l’unica ancora di salvezza in questa tempesta digitale. È necessario tornare alla sostanza, non cercare nuovi trucchi.

  11. Si piange per le “allucinazioni” dopo aver nutrito la macchina con fuffa per anni. È il raccolto che meritate. L’IA non è un mago, è uno specchio. Vi piace l’immagine che riflette?

  12. Danilo Graziani

    Avete costruito una casa su fondamenta di sabbia. Ora vi lamentate delle crepe. La solidità di un’azienda non dipende da oracoli digitali.

  13. Inseguite macchine bugiarde come se non ci fosse un domani. Il brand si fonda sulle persone, punto. Che altro c’è da capire?

  14. Antonio Barone

    Passeremo dal curare i contenuti per i motori di ricerca a querelare gli stessi motori per i contenuti che si inventano. Bel progresso.

    1. Paola, più che un suicidio, lo vedo come un omicidio premeditato in cui noi forniamo l’arma con i nostri dati, ben consci che il conto per i danni reputazionali lo presenteranno sempre alle agenzie.

  15. Angela Longo

    Forniamo i dati, loro ci regalano diffamazioni random. Un baratto equo. Urge manuale di istruzioni per IA, o un esorcista per server.

  16. Patrizia Bellucci

    Vedo molta paura e poca preparazione a governare la nuova narrazione. Un’opportunità per pochi.

  17. Francesco De Angelis

    Il controllo della narrazione del brand è sempre stato nostro. Delegarlo a LLM imprevedibili è stata una follia. La reputazione non si può automatizzare.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Ricevi i migliori aggiornamenti di settore