SEO Confidential – La nostra intervista esclusiva a Simon Schnieders: in un mondo senza click, il marchio è il risultato

Con l’IA generativa che sintetizza risposte e plasma la memoria degli utenti, la sfida non è più solo essere trovati, ma essere interpretati correttamente dal modello

Premi play e ascolta di cosa tratta l’intervista a Simon Schnieders

Ho creato SEO Confidential per avere uno spazio di confronto aperto, diretto, senza filtri né posizioni di comodo. Un luogo in cui discutere davvero di ciò che sta cambiando nella SEO e, più in generale, nel modo in cui brand, contenuti e reputazione vengono interpretati dai sistemi di ricerca e dai modelli di intelligenza artificiale.

Se mi segui sai benissimo che a volte mi capita di non essere d’accordo con gli ospiti che intervisto, ma credo che questa diversità sia una ricchezza che faccia solo del bene al dibattito.

Non è un mistero, per esempio, che io guardi con una certa diffidenza alla definizione di GEO e continui a considerarla, nella sostanza, un’evoluzione naturale della SEO più che una disciplina autonoma. Ma, allo stesso tempo, credo che sia più proficuo per tutti smetterla di trincerarsi dietro a etichette, buone solo per perder tempo in battaglie ideologiche.

Anche per questo motivo, sono particolarmente contento di ospitare Simon Schnieders, fondatore di Blue Array, agenzia SEO (e GEO) del Regno Unito, una delle voci più autorevoli del settore e strenuo difensore della GEO.

Nel corso dell’intervista affronteremo temi che toccano da vicino professionisti come te, brand ed editori: il progressivo svuotamento di senso del ranking, la visibilità senza click, il ruolo del sentiment e dei bias nei modelli generativi, la sopravvivenza dei marchi in un ecosistema dominato dalla sintesi (hai presente AI Overviews?) e molto altro.

Ma soprattutto parleremo di reputazione aziendale e di come l’IA possa riscriverla, anche in modo errato. Un rischio che Simon ha vissuto in prima persona, quando Blue Array è stata colpita da uno scam capace di deformare la percezione pubblica del brand.

La sua risposta a questo attacco, a parer mio, è stata eccellente e penso seriamente che dovresti conoscerla.

Simon Schnieders, intervistato dal SEO Roberto Serra
Simon Schnieders

“In un mondo senza click, il marchio è il risultato. Se il modello si fida di te, ti menziona. Se ti menziona, l’utente ti cerca direttamente”, dice Simon

Ciao Simon, recentemente ho letto un tuo post su LinkedIn in cui scrivi che “non puoi posizionarti in un sistema probabilistico” e che i tool che promettono di misurare la “visibilità” di un brand nelle risposte degli LLM, producono rumore, non dati.

Secondo te siamo davanti a una nuova bolla di metriche di vanità o c’è comunque uno spazio legittimo per monitorare, in qualche forma, la presenza dei brand nelle risposte degli LLM?

Ci troviamo sicuramente di fronte a una bolla di olio di serpente (l’espressione deriva dai presunti rimedi miracolosi a base di “olio di serpente” venduti tra Ottocento e Novecento, soprattutto negli Stati Uniti, pubblicizzati come cure universali ma privi di efficacia reale N.d.R.).

L’errore fondamentale che commettono molti nuovi strumenti di “visibilità AI” è quello di trattare un Large Language Model come un database deterministico. Nella SEO classica, se sei al primo posto per una parola chiave, generalmente sei al primo posto per tutti in quella regione.

Gli LLM sono, invece, probabilistici. Se fai la stessa domanda cinque volte a ChatGPT, potresti ottenere tre diverse varianti di risposta. Pertanto, uno strumento che promette il monitoraggio del posizionamento sulla base di prompt statici ti sta vendendo solo rumore.

Detto questo, la presenza va comunque monitorata, ma cambiano le metriche di riferimento. Dobbiamo allontanarci dal “posizionamento” e orientarci verso la Share of Voice (SoV) e il Sentiment. La domanda non è “dove mi posiziono?”, ma “in 100.000 iterazioni di query all’interno di questa ‘categoria’, in quale percentuale di casi viene menzionato o citato il mio marchio?” e “tale menzione o citazione è positiva o negativa?”. Questi sono dati; il resto è vanità.

La GEO (Generative Engine Optimization, ottimizzazione dei contenuti per i motori di risposta basati su IA) viene spesso derisa come “un nome inventato”, ma tu pensi che sia una naturale evoluzione della SEO, giusto? Perché, secondo te, sarebbe un errore negare l’esistenza della GEO?

Per me l’errore di molti colleghi SEO è pensare che GEO sia un “nuovo canale” piuttosto che la naturale evoluzione del canale in cui già operano. GEO non è una parola alla moda inventata; è semplicemente il passaggio dall’ottimizzazione per il recupero (trovare un documento) all’ottimizzazione per la sintesi (generare una risposta).

I SEO che negano questo fatto credono alla propaganda di Google secondo cui “è solo SEO”. Ho visto dati concreti che suggeriscono che circa il 50% delle risposte dell’IA proviene dal modello di base e non da contenuti recuperati in tempo reale.

Questo significa che una parte rilevante della visibilità e del framing informativo porta con sé i bias e i pregiudizi intrinseci del modello stesso. Prenderne atto non vuol dire abbandonare la SEO, ma riconoscere che il contesto in cui opera sta cambiando.

Hai ipotizzato che le SERP classiche potrebbero sparire entro il 2027 e che in futuro i modelli generativi decideranno totalmente cosa mostrare, spesso senza click verso i siti. A tuo avviso quali categorie di brand rischiano di scomparire per prime dalla “memoria” dei modelli? E quali invece sono posizionati meglio per sopravvivere in un mondo dominato da brand visibility e sentiment?

È difficile immaginare un futuro per molti “intermediari”. Quando il modello di business si fonda esclusivamente sull’arbitraggio informativo, (cioè sulla riorganizzazione di contenuti prodotti da altri senza attività di test, analisi o produzione diretta N.d.R.), come accade per i siti affiliati che elencano i “migliori forni tostapane” senza averne mai provato uno, il rischio di uscire dal mercato diventa concreto.

I modelli LLM sono infatti in grado di svolgere quel lavoro di sintesi in modo immediato e, nella maggior parte dei casi, più efficace.

I sopravvissuti saranno i marchi Source of Truth. Si tratta di marchi con segnali “Real World”: impronte fisiche, dati proprietari, comunità attive e recensioni autentiche. In Blue Array, essere una B-Corp aiuta in questo senso perché è un segnale esterno verificato di legittimità. In un mondo senza click, il marchio è il risultato. Se il modello si fida di te, ti menziona. Se ti menziona, l’utente ti cerca direttamente.

Tu sostieni che la GEO esiste ed è già parte del presente, ma ammetti anche che la visibilità nei modelli generativi è quasi impossibile da misurare in modo affidabile, perché le risposte degli LLM cambiano di continuo e sono intrinsecamente probabilistiche.

In questo contesto, come si dimostrano i risultati ai clienti? Quali metriche, segnali o forme di evidenza ritieni davvero utili per mostrare che il lavoro di GEO sta producendo un impatto reale, anche senza un “ranking” da monitorare?

Questa è la conversazione più difficile che abbiamo in questo momento. Dobbiamo “rieducare” i clienti a guardare segnali diversi. Ci concentriamo sulla visibilità correlativa.

Non possiamo tracciare un ranking statico, ma possiamo tracciare:

  1. Menzioni del marchio nelle esperienze IA: utilizziamo campionamenti manuali e strumenti emergenti per vedere se il marchio appare nell’“istantanea”.
  2. Qualità del traffico vs. quantità: potremmo assistere a un calo del volume di traffico organico, ma a un aumento del tasso di conversione. Perché? Perché i “curiosi” hanno ottenuto la loro risposta dall’IA, quindi le persone che cliccano sono pronte ad acquistare.
  3. Citazioni di terze parti: mostriamo ai clienti che abbiamo ottenuto la copertura sulle fonti che istruiscono l’IA. Se influenziamo la fonte, influenziamo il risultato.

Hai scritto che, quando un utente chiede “qual è il best X”, gli LLM non guardano la parola “best” in modo superficiale, non pensano al ranking o alla miglior key ma attivano un insieme di criteri come qualità, prezzo, durata, reputazione, recensioni. Qual è, secondo te, l’errore più comune che i marketer fanno quando pensano al concetto di “best”?

Pensano che “migliore” sia una parola chiave. Cercano di ottimizzare una pagina inserendo “Migliore agenzia SEO” nel testo.

Per un LLM, ‘migliore’ è un insieme di attributi o vettori. Quando un utente chiede “le migliori scarpe da corsa”, l’LLM cerca associazioni vettoriali specifiche: punteggi di durata, opinioni nei thread di Reddit, politiche di restituzione e coerenza dei prezzi.

L’errore che commettono i marketer è dire “siamo i migliori” invece di dimostrare gli attributi che il modello associa alla qualità. È necessario decodificare i criteri utilizzati dall’LLM per definire “migliore” nel proprio settore verticale e ottimizzare in base a tali criteri, non all’aggettivo stesso.

Google AI Mode usa il query fan-out per trasformare una singola domanda in molte sotto-domande, così da capire meglio cosa vuole davvero l’utente. Dal tuo punto di vista, cosa comporta questo cambio di logica per i brand? Chi rischia di perdere visibilità e chi invece può guadagnarne quando Google non interpreta più le query in modo letterale?

Il “query fan-out” è affascinante perché elimina la strategia long tail che consiste nel creare una pagina per ogni domanda specifica. Google ora suddivide una domanda complessa in sotto-parti, recupera informazioni da diverse fonti e le mette insieme.

I marchi che si affidano a contenuti “scarsi” che rispondono a domande semplici rischiano di perdere visibilità perché Google non ha più bisogno di indirizzare un utente alla loro pagina per rispondere a quella specifica sfumatura. I vincitori saranno i marchi che forniscono una copertura completa. È necessario essere l’autorità sull’intero argomento in modo che, quando Google suddivide quella query, la propria entità sia la risposta a 3 o 4 di quelle sotto-domande.

Durante l’evento di Simply Business a Londra, nel panel dedicato a temi SEO e IA che hai moderato, Jonathon Heard, manager di Google UK, ha detto che l’introduzione dell’IA spinge gli utenti a fare più click e ad approfondire di più le ricerche.

È un’affermazione che contrasta con ciò che molti editori e aziende stanno vedendo nei dati reali, cioè forti cali di traffico organico. Come interpreti questa differenza? Ti sembra uno sfoggio di ottimismo, oppure credi davvero che l’uso di Gemini 3 possa aumentare i click verso le fonti esterne?

Ho molto rispetto per Jonathon, ma quella dichiarazione è, diciamo, “ottimismo aziendale”. I dati che vediamo nella nostra base clienti (e nel settore in generale) non supportano l’idea che l’IA generi più click per tutti. Semmai, genera soddisfazione zero click per query semplici.

Tuttavia, c’è un fondo di verità: per argomenti complessi e approfonditi, gli utenti potrebbero cliccare su fonti più qualificate. Ma per la stragrande maggioranza degli editori che fanno affidamento sul traffico superficiale? No. Quel traffico viene cannibalizzato. Dobbiamo essere realistici: l’obiettivo di Google è soddisfare l’utente su Google.

Hai chiesto a Google se sarà possibile avere in Search Console dati distinti per AI Mode e AI Overviews. La risposta è stata un generico “ci stiamo pensando”. Perché questa ostinata mancanza di trasparenza? Big G ha paura che quei numeri possano mostrare un impatto negativo per editori e aziende, oppure è la struttura stessa della nuova Search a rendere difficile ottenere metriche separate e realmente affidabili?

Probabilmente si tratta di un mix, ma propendo per l’offuscamento strategico. Tecnicamente, separare i dati è possibile, sanno esattamente da dove proviene il click. Ma se mostrassero esplicitamente agli editori: “Guardate, il 40% delle vostre impressioni è ora strettamente all’interno delle AI Overviews con un CTR dello 0,1%”, causerebbe una rivolta.

Svaluterebbe il loro ecosistema. Confondendo i confini, guadagnano tempo per normalizzare il comportamento. È frustrante per noi che siamo esperti di marketing basato sui dati, ma dal punto di vista della strategia aziendale di Google, ha perfettamente senso.

Ora, Simon, passiamo a un tema che mi sta molto a cuore. Con l’avanzata degli LLM c’è il rischio che si crei una sorta di “marchio parallelo”, fatto di allucinazioni, informazioni sbagliate o semplici fraintendimenti che possono radicarsi nella percezione pubblica. Quanto è concreto questo pericolo e, secondo te, quali strategie deve adottare un’azienda per influenzare in modo attivo i modelli generativi e far sì che la narrazione del brand sia quella reale, non quella inventata dall’IA?

Il pericolo è incredibilmente reale. Se un LLM ha l’allucinazione che il tuo prodotto sia fuori produzione o non sicuro, questa diventa la “verità” per migliaia di utenti.

La strategia è “Inception”. Non si corregge un LLM dopo che ha risposto, perché non è possibile editarlo direttamente. Si agisce prima, influenzando le informazioni che il modello apprende. Come? Inondando il corpus di addestramento con dati strutturati e verificabili.

  1. Schema Markup: siate ossessivi riguardo allo schema Organizzazione e Prodotto. Parlate la lingua della macchina.
  2. Strategia Wiki: assicuratevi che la vostra presenza su siti come Wikipedia, Wikidata e Crunchbase sia accurata. Gli LLM si fidano in modo sproporzionato di queste fonti.
  3. PR digitale: avete bisogno che la narrazione del vostro marchio sia presente su siti di terze parti ad alta autorità. Se il New York Times dice che siete X, l’LLM crede che siate X.

Blue Array, la tua agenzia di consulenze, è stata vittima di uno scam che ha generato conversazioni negative online e rischiato di compromettere la reputazione del brand anche agli occhi degli LLM. Quali passi avete compiuto per contrastare questa distorsione, ristabilire fiducia e far sì che i modelli raccontassero la versione corretta della vostra identità?

Questo è stato un test critico per le nostre teorie GEO. Siamo stati vittime di una “truffa” in cui malintenzionati hanno utilizzato il nostro marchio su WhatsApp per truffare le persone. Su Reddit hanno iniziato a diffondersi commenti negativi, con persone che chiedevano “Blue Array è una truffa?”.

Ci siamo resi conto che se gli LLM avessero raccolto quei thread di Reddit, il nostro marchio sarebbe stato associato alla parola “truffa”. Abbiamo adottato un approccio su più fronti:

  1. Intervento diretto: sono andato personalmente su quei thread di Reddit per chiarire la situazione, confermando che si trattava di una truffa e che noi ne eravamo le vittime. Questo ha aggiunto un testo “autorevole” al thread.
  2. Creazione di contenuti: abbiamo pubblicato una pagina chiara e dettagliata sul nostro sito web riguardo alla truffa.
  3. Il risultato: ora, se chiedete a ChatGPT o Gemini informazioni sulla “truffa Blue Array”, non vi diranno che “Blue Array è una truffa”. Dice invece: “Blue Array è stata presa di mira da dei truffatori e ha avvertito gli utenti al riguardo”.

Abbiamo insegnato con successo al “cervello IA” a distinguere tra il criminale e la vittima fornendogli il contesto giusto nei luoghi in cui cerca la verità (come Reddit e il nostro sito). Questa, per me, è GEO in azione.

Quando l’IA riscrive il tuo brand, la strategia diventa una responsabilità

Questa conversazione, come d’altronde tutte le interviste di SEO Confidential, riguarda te, il tuo brand, le decisioni che stai prendendo oggi e quelle che rimandi perché “non è ancora chiaro”.

Il punto è che non lo sarà mai del tutto.

I modelli generativi stanno già filtrando, sintetizzando e riscrivendo la realtà, e lo fanno indipendentemente dal fatto che tu creda o meno nelle nuove etichette.

Puoi continuare a inseguire ranking sempre più instabili, oppure puoi iniziare a chiederti che immagine del tuo marchio sta emergendo quando nessuno clicca più.

Puoi affidarti a metriche rassicuranti ma vuote, o accettare che visibilità, fiducia e reputazione siano diventate variabili meno misurabili, ma molto più decisive.

Penso che tu debba tenere conto di un concetto emerso in questa intervista, ovvero: non controlli il modello, ma puoi influenzare ciò che apprende. E questo richiede intenzionalità, presenza e coerenza. Nei contenuti che produci, nelle fonti che presidii, nelle conversazioni in cui scegli di esserci.

La reputazione aziendale non è più soltanto il risultato di ciò che comunichi, ma di ciò che i sistemi di intelligenza artificiale apprendono, sintetizzano e restituiscono al pubblico. È un cambiamento silenzioso ma profondo.

Le allucinazioni, i bias e le semplificazioni dei modelli generativi possono trasformare un’informazione marginale in una verità percepita, amplificata su larga scala.

Non serve un errore clamoroso: basta un contesto incompleto o una fonte sbilanciata.

In questo scenario, la reputazione non si difende reagendo dopo, ma costruendo prima un ecosistema informativo solido, coerente e verificabile. Chi sottovaluta questo passaggio rischia di perdere la sovranità del proprio racconto proprio mentre crede di averlo più che mai sotto controllo.

Se lavori nel digitale, non puoi permetterti di restare neutrale. Devi scegliere dove posizionarti, anche quando il posizionamento non è più una classifica.

Questa non è la fine della SEO, né l’inizio di una nuova sigla da adottare. È un cambio di responsabilità.

E ignorarlo, oggi, è la scelta più rischiosa di tutte.

Beh, io ringrazio Simon per i preziosi insight e per la sua disponibilità e, per quanto riguarda noi, ci vediamo la prossima settimana con una nuova intervista da non perdere!

#avantitutta!

Roberto Serra

Mi chiamo Roberto Serra e sono un digital marketer con una forte passione per la SEO: Mi occupo di posizionamento sui motori di ricerca, strategia digitale e creazione di contenuti.

14 commenti su “SEO Confidential – La nostra intervista esclusiva a Simon Schnieders: in un mondo senza click, il marchio è il risultato”

  1. Affidare la reputazione di un marchio a un modello linguistico è follia. Un sistema opaco decide cosa siamo. Chi controlla il controllore?

    1. Francesco Messina

      @Carlo Ferrari Il controllore non è un mistero: è chi offre di più, oggi come ieri, ma con la comoda scusa dell’imparzialità tecnologica.

  2. L’idea di “essere interpretati correttamente” da un’IA è una favola per addetti ai lavori. L’algoritmo non ha un’opinione, segue gli interessi economici di chi lo possiede. Il nostro marchio è solo un’altra variabile nella loro equazione, facilmente sostituibile dal miglior offerente.

    1. @Carlo Caruso L’arrosto del marchio è una banalità che si racconta da anni. Il problema oggi è che l’IA non legge il menù, ma assaggia direttamente la reputazione che ti sei costruito. E tanti e-commerce mi sembrano ancora fermi agli antipasti.

  3. Giovanni Graziani

    L’IA interpreta il marchio? Ma per favore. Il mio marchio è il cliente che paga, non il riassunto di un algoritmo. Il resto è filosofia.

  4. La scoperta dell’acqua calda, impacchettata con un nuovo nastro per vendere consulenze. Il marchio era il risultato anche quando si usavano i piccioni viaggiatori.

    1. @Renato Martino È un cane che si morde la coda. Prima i piccioni, ora l’IA. La tecnologia cambia, ma il rumore di fondo resta. Alla fine contano le persone, non le macchine.

    2. Renato Martino, prima il nastro lo mettevi tu. Ora lo mette un algoritmo cieco che vede solo numeri. Chiamalo pure un bel progresso.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Ricevi i migliori aggiornamenti di settore