SEO Confidential – La nostra intervista esclusiva a Duane Forrester

“Il web non è mai stato una meritocrazia. È sempre stata la sopravvivenza del più forte. Vince chi si adatta più rapidamente”

Premi play e ascolta l’intervista in pillole

Prosegue il nostro viaggio con SEO Confidential, la rubrica che dà voce ai protagonisti del cambiamento: esperti internazionali che analizzano, discutono e a volte si scontrano sulle trasformazioni della ricerca online.

In un momento in cui l’attenzione si sposta dai motori di ricerca ai motori di risposta basati su IA e LLM, questa serie di interviste raccoglie punti di vista concreti, tecnici e strategici per chi fa impresa e vuole continuare a vendere e convertire in un ecosistema digitale che cambia ogni giorno.

In questa puntata, l’ospite è Duane Forrester, una delle voci più autorevoli al mondo nel campo della ricerca e della visibilità digitale. Ex product manager di Microsoft Bing, dove ha lanciato Bing Webmaster Tools e contribuito alla nascita di Schema.org, da oltre vent’anni studia come le persone – e oggi le macchine – trovano, interpretano e giudicano i contenuti online.

Oggi guida aziende e startup nell’era della GenAI discovery, aiutandole a diventare discoverable, trustworthy e retrievable all’interno dei sistemi di intelligenza artificiale.

In questa nostra intervista, Duane racconta come sta cambiando la SEO nell’epoca delle risposte generate dai modelli linguistici, perché i dati contano meno di un tempo, e come la credibilità di un marchio stia diventando un equilibrio fragile tra algoritmi, accordi di licenza e percezioni umane.

Si parlerà di Machine-Validated Authority, di bias nei modelli e di un web che forse non è mai stato davvero meritocratico, e molto altro…

Una conversazione che penso possa esserti molto utile, che ti invita a guardare oltre il click e a capire come l’intelligenza artificiale stia riscrivendo il concetto stesso di visibilità online. Ti auguro buona lettura.

Duane Forrester intervistato da Roberto Serra

“Presto arriveranno i verificatori universali: controlleranno i fatti prima di generare una risposta. Le allucinazioni si ridurranno e la fiducia nelle piattaforme crescerà”

Si parla spesso di “marketing basato sui dati”, ma con gli assistenti IA nessuno sa davvero cosa viene visto, da chi e quanto conti davvero. Non è un paradosso? Stiamo davvero misurando qualcosa, o stiamo solo fingendo di capire numeri che ormai non hanno più alcun senso?

C’è molto da approfondire in questa domanda, quindi partiamo dall’inizio. Le piattaforme sanno perfettamente cosa viene visualizzato. Dispongono dei dati su ciò che viene mostrato, con quale frequenza, in quale forma e a chi. Sanno quando un contenuto viene citato, menzionato, parafrasato o completamente omesso da una risposta. E quando gli utenti sono connessi, sanno esattamente chi li sta vedendo. Anche se non lo sono, possono comunque analizzare il comportamento dei gruppi di utenti in modo preciso.

Quindi sì, le piattaforme lo sanno, e quei dati sono importanti per loro. Determinano decisioni che valgono milioni, dalle caratteristiche dei prodotti all’accesso alle API, a ciò che viene dato la priorità nei risultati. Il paradosso non è che non abbiamo dati. È che loro ne hanno di più, e noi ne abbiamo di meno.

Per tutti noi, è complicato. I SEO vivono in un’approssimazione della verità. Alcuni capiscono cosa sta realmente accadendo. La maggior parte continua a fare supposizioni. Ma è così che è nata la SEO, no? All’inizio, facevamo tutti supposizioni. In questo momento, siamo tornati nella stessa posizione, a fissare un nuovo sistema, cercando di decodificarne le regole.

Coloro che impareranno come i sistemi di IA decidono effettivamente le cose, che approfondiranno il modo in cui i modelli valutano, assegnano punteggi e danno priorità ai contenuti, avranno successo. Tutti gli altri rimarranno indietro, continuando a fissare dashboard costruite per un mondo che sta cessando di esistere

Google ha iniziato a integrare i dati di AI Mode nella Search Console, ma senza permettere di distinguerli da quelli della ricerca tradizionale. Pensi che sia solo un limite tecnico momentaneo o una scelta voluta per evitare di far vedere quanto traffico l’IA stia già sottraendo ai risultati classici?

A mio avviso, si tratta di una decisione, non di una limitazione. Dal punto di vista commerciale, esistono molte valide ragioni per non divulgare tali dati. Se Google consentisse a tutti di vedere esattamente quale percentuale di click o impressioni viene intercettata dalle risposte dell’IA, fornirebbe ai concorrenti un modello da seguire. Qualsiasi azienda potrebbe decodificarlo e accelerare lo sviluppo della propria versione.

E il costo non sarebbe irrisorio. Se si tiene conto del lavoro di gestione del prodotto, ingegneria, progettazione, test e controllo qualità necessario per creare e mantenere tale segmentazione dei dati, si parla di centinaia di migliaia, forse milioni, investiti nella creazione di quel livello. Condividerlo apertamente sarebbe come svelare la ricetta.

Sarebbe utile per i SEO e i marketer? A malapena. Qualche informazione in più aiuterebbe, certo, ma non cambierebbe davvero le strategie in modo sostanziale. Per questo credo che si tratti di una decisione aziendale ben ponderata, non di un limite tecnico.

Tutti spingono a “scrivere per gli utenti”, ma gli assistenti AI premiano i testi brevi, strutturati e standardizzati. Non stiamo rischiando di costruire un web progettato per soddisfare i modelli linguistici piuttosto che le persone?

Guardiamo la questione da un’altra prospettiva. Crediamo davvero che il web debba esistere solo per gli esseri umani? L’intero fondamento del web era quello di condividere informazioni tra fonti, non necessariamente persone. Le macchine sono ora parte di quell’ecosistema.

Se il mio obiettivo è guadagnare e pagare i miei dipendenti, mi interessa il risultato, non la specie dei miei visitatori. Che il visitatore sia umano o macchina, se consuma i miei dati, cita il mio lavoro o acquista il mio prodotto, è una vittoria.

Non si tratta di piacerci o meno. Sta succedendo. E non tornerà indietro. Possiamo odiare l’idea, possiamo sostenere che sia “senza anima” o “sbagliata”, ma miliardi di consumatori utilizzano l’IA ogni giorno. Quando la domanda è così elevata, resistere è inutile. (E sì, sto usando un riferimento a Star Trek!) Quindi, vogliamo scendere dal treno o imparare? Adattarci svogliatamente o sfruttare il caos a nostro vantaggio?

L’intelligenza artificiale non sostituisce la SEO, ma la integra“. Eppure, se le risposte compaiono prima ancora del click, non è forse il segnale che la SEO ha già perso la sua funzione più autentica: quella di generare traffico e visibilità reali?

Penso a questa transizione come al passaggio dalla scuola superiore all’università. Non è possibile fare l’una senza completare l’altra.

La SEO sta perdendo valore? Dipende da cosa si intende per valore.

Se si ritiene che il valore della SEO risieda nelle dimensioni del settore (i posti di lavoro, le conferenze, gli strumenti, le agenzie), allora sì, questa evoluzione mette in discussione quel modello.

Ma se si ritiene che il valore della SEO risieda nel migliorare l’accesso alle informazioni, rendere i contenuti più chiari e garantire esperienze affidabili, allora no, non sta perdendo valore.

I sistemi di intelligenza artificiale premiano la struttura, la chiarezza e l’allineamento fattuale. Questo è esattamente il tipo di lavoro che i buoni SEO hanno sempre fatto.

La differenza è che ora il “pubblico” include le macchine. Se stai ottimizzando per il recupero delle informazioni e l’affidabilità, anziché per il posizionamento e i click, stai comunque facendo SEO. Lo stai solo facendo per un nuovo livello di ricerca, più profondo e interconnesso.

Gli assistenti AI decidono chi citare, ma i criteri rimangono poco chiari e potenzialmente influenzati dagli accordi di licenza con editori e mezzi di comunicazione. Come possiamo parlare di meritocrazia se la visibilità può dipendere da chi firma un contratto con OpenAI o Microsoft?

In linea di massima, questi accordi di licenza hanno una certa influenza. Tuttavia, gli editori non sono necessariamente gli esperti più competenti nella maggior parte degli argomenti. Quando una query richiede una reale competenza, il campo torna ad essere livellato.

Siamo abituati a pensare alla ricerca in termini lineari: “se faccio X, ottengo Y”. I modelli di intelligenza artificiale operano in uno spazio vettoriale, dove le relazioni sono multidimensionali e in costante evoluzione. Cercare di applicare la vecchia logica SEO a quel mondo non funziona.

E sì, i sistemi sono opachi. Ma lo era anche Google nel 1998. Abbiamo imparato, ci siamo adattati e abbiamo costruito intere carriere partendo da quell’opacità. Non c’è alcuna differenza.

Inoltre, siamo onesti… il web non è mai stato una meritocrazia. È sempre stata la sopravvivenza del più forte. Vince chi si adatta più rapidamente. E se ci pensate, anche il concetto di meritocrazia implica competizione. Un vincitore, molti perdenti. Il web ha sempre seguito queste regole.

Tu parli di “Machine-Validated Authority” come di un nuovo indicatore di fiducia. Ma se nessuno può verificarlo davvero, non c’è forse il rischio che diventi la nuova illusione del ranking? Un concetto pensato per dare credibilità a un sistema che, di fatto, non consente più di capire come valuta i contenuti?

Nessuno al di fuori delle piattaforme potrà mai vedere come i sistemi di IA assegnano la fiducia. Ciò non significa che i segnali non esistano. Ovviamente esistono. I modelli valutano costantemente la credibilità, la coerenza e l’accuratezza a un livello di granularità a cui non abbiamo mai avuto accesso.

Il nostro compito è presentare i contenuti in modo da trasmettere ogni possibile segnale di affidabilità. Più aiutiamo la macchina a comprendere la nostra competenza, maggiori sono le possibilità di essere scelti.

La fase successiva, che arriverà presto, sarà quella in cui queste aziende implementeranno dei verificatori universali. Si tratta di sistemi che verificano i fatti prima di fornire una risposta. Ciò ridurrà drasticamente le allucinazioni e aumenterà la fiducia nelle piattaforme.

Quando ciò accadrà, i contenuti di bassa qualità o fuorvianti verranno filtrati in modo più aggressivo. Il rapporto segnale/rumore migliorerà, la fiducia crescerà e i contenuti che sopravvivranno otterranno la convalida della macchina in base al merito, non alla manipolazione. Beh, qualcosa di simile al merito, dato che abbiamo già messo in discussione questo concetto…

I consumatori premieranno le piattaforme che forniscono i risultati più accurati. Una volta chiuso questo ciclo, discutere se il sistema si legittimi da solo diventerà accademico. Sarà il mercato a decidere cosa funziona.

Oggi, molti operatori del settore accettano senza discutere ogni indicazione proveniente da Google o OpenAI. Non è forse questo un segno che la SEO ha smesso di essere una disciplina sperimentale e critica, trasformandosi in un atto di fede nei confronti di chi controlla la piattaforma?

Onestamente, non so bene quando sia iniziato tutto questo. Quando lavoravo per Microsoft Bing, mettevo in discussione ogni cosa. Quando dovevamo decidere cosa rendere pubblico, riunivamo ingegneri, avvocati, addetti alle pubbliche relazioni, product manager e tutti gli altri. Se il messaggio rischiava di essere troppo superficiale o fuorviante, non dicevamo nulla. In questo modo, quando parlavamo, le persone sapevano che era importante.

Oggi vedo molte ripetizioni. Qualcuno di Google dice qualcosa e questa viene immediatamente amplificata, spesso senza contesto. Ripetere non è il problema; ripetere e credere senza verificare lo è.

È come se un’azienda produttrice di birra ti dicesse che la sua birra è la più rinfrescante al mondo. Se non ne hai mai assaggiata un’altra, come puoi saperlo?

Un tempo c’era più resistenza. I SEO chiedevano conto a Google, a voce alta, alle conferenze e online. Quell’energia è svanita. Forse è maturità, o forse stanchezza.

Ma se credi ancora che il tuo futuro risieda interamente nel “SEO tradizionale” e ignori come l’IA stia ridefinendo l’interpretazione dei dati, allora non so cosa dirti se non forse: addio? La tecnologia guida il cambiamento e rimanere fermi garantisce di rimanere indietro.

Sostieni che nel 2026, gli assistenti IA diventeranno il primo punto di contatto con le informazioni. Se le decisioni dei consumatori e delle aziende vengono prese prima che raggiungano i siti web, non c’è il rischio che la battaglia per la visibilità si sposti definitivamente fuori dal web?

No, affatto. I cambiamenti di questo tipo non avvengono dall’oggi al domani. Il comportamento umano evolve lentamente, anche quando la tecnologia corre veloce. D’altronde Google impiegò nove anni per raggiungere il 50% della quota di mercato. L’adozione dell’intelligenza artificiale procede più rapidamente, ma resta tutt’altro che immediata.

Ciò che cambierà davvero è il modo in cui la visibilità si manifesta.

I siti web non spariranno, si trasformeranno. I dati devono comunque avere una casa, e i contenuti devono restare rintracciabili, indicizzabili e verificabili.

Gli assistenti IA non creano conoscenza dal nulla: si nutrono di un web ben strutturato e ottimizzato.

Alcune aziende forse abbandoneranno il modello del sito tradizionale, ma la loro presenza online continuerà a esistere sotto altre forme. La vera sfida sarà scrivere e ottimizzare pensando a due pubblici distinti: gli esseri umani e i crawler di intelligenza artificiale che analizzano, interpretano e validano le informazioni.

Se i modelli di IA non sono in grado di distinguere tra verità e ripetizione, ciò non significa forse che la reputazione di un marchio può essere distrutta semplicemente da coloro che riescono a inquinare i dati in misura sufficiente?

C’è un fondo di verità in questo. Il problema esiste, ma si sta lavorando intensamente per risolverlo. Tutte le grandi aziende stanno sviluppando sistemi che verificano i risultati dell’IA utilizzando altre IA e, sebbene possa sembrare ironico, si sta dimostrando efficace.

Quando si restringe l’ambito dei dati di un modello a fonti verificate, le allucinazioni diminuiscono drasticamente. Il compromesso è la flessibilità, ma l’accuratezza aumenta. Il concetto di “verificatore universale” è pensato proprio per gestire questo aspetto.

Certo, al momento un’ondata di dati errati può danneggiare il marchio. Ma questa possibilità sta scomparendo. Abbiamo già vissuto la stessa situazione con la negative SEO e gli schemi di link tossici. C’è stato il caos, poi il problema è stato risolto. Lo stesso accadrà anche in questo caso.

Secondo quanto scrivi, bastano centinaia di contenuti falsi per influenzare il giudizio di un assistente IA. Quindi, chi garantisce che la “credibilità” di un marchio non diventi solo una questione di volume e manipolazione?

Garanzie? Nessuna. Non ce ne sono mai state. Ma la responsabilità è condivisa.

Tutto parte dal marchio: la leadership, il marketing, la comunicazione e persino i team di prodotto contribuiscono al modo in cui un brand costruisce fiducia. A questo si aggiungono fan e sostenitori, che possono amplificarne la reputazione, a volte rafforzandola, altre volte indebolendola.

Anche le piattaforme hanno un ruolo chiave. Google, Bing, Yelp e gli assistenti di intelligenza artificiale devono garantire sistemi capaci di verificare l’autenticità e prevenire la manipolazione. I cosiddetti “verificatori universali” potranno rafforzare questo equilibrio, ma siamo ancora lontani da un modello affidabile.

Poi ci sono giornalisti, influencer e blogger: voci che gli algoritmi interpretano come segnali di autorevolezza. Tutto questo dimostra che la credibilità di un marchio è uno sforzo collettivo, non un compito isolato.

È da decenni che balliamo questa danza. Gli strumenti e le piattaforme cambiano, ma i fondamenti rimangono gli stessi. Chi comprende veramente la gestione della reputazione continuerà a prosperare.

Se ogni motore di ricerca e modello di intelligenza artificiale è inevitabilmente influenzato da bias e pregiudizi, ha ancora senso parlare di “risultati neutrali”? In pratica, chi decide come viene percepito un marchio: l’algoritmo o coloro che sono maggiormente in grado di influenzarlo?

Non ho mai creduto nei risultati neutrali. Gli algoritmi hanno sempre rispecchiato i pregiudizi e le intenzioni dei loro creatori. I modelli di IA non sono diversi, solo che lo fanno più velocemente e su larga scala.

L’algoritmo costruisce l’ambiente, ma sono gli esseri umani a plasmare i segnali che lo nutrono. Ogni click, condivisione o interazione contribuisce a rafforzare la visione che il modello si forma del mondo.

Chi determina davvero come viene percepito un marchio? Entrambi.

L’algoritmo stabilisce le regole del gioco, ma è il comportamento umano a scrivere la partita. Chi sa leggere e orientare questa relazione riuscirà a modellare la percezione. Gli altri resteranno un passo indietro, costretti a inseguire.

Bias, percezione e potere: chi controlla davvero la reputazione online?

L’intervista con Duane Forrester apre una prospettiva lucida e quasi spiazzante su ciò che ti aspetta.

Un futuro in cui le decisioni d’acquisto avvengono prima del click, i motori di risposta guidano la scoperta e l’intelligenza artificiale ridisegna il concetto stesso di conversione.

Le certezze del passato – keyword, ranking, CTR – stanno lasciando spazio a un nuovo ecosistema in cui la visibilità non si misura più solo in click, ma in segnali di fiducia riconosciuti da macchine che apprendono, sintetizzano e giudicano.

Devi sapere che oggi la credibilità di un marchio è il frutto di un ménage à trois: di ciò che l’azienda comunica, di come il pubblico reagisce e di come gli algoritmi interpretano entrambe le cose.

I dati contano meno, la reputazione conta di più. Non basta più “essere trovati”: bisogna essere scelti dai sistemi che rispondono al posto delle persone.

E non esistono risultati neutrali.

Non sono mai esistiti!

Gli algoritmi riflettono sempre i pregiudizi e le intenzioni dei loro creatori, mentre i modelli di intelligenza artificiale amplificano quegli stessi bias in modo più rapido e profondo. L’algoritmo costruisce l’ambiente, ma sono gli esseri umani a nutrirlo di segnali: ogni click, condivisione o interazione contribuisce a modellare la percezione del mondo – e dei marchi – che la macchina apprende.

Sì, perché l’algoritmo detta le regole del gioco, ma è il comportamento umano a scrivere la partita.

Chi saprà leggere e guidare questa relazione, comprendendo il linguaggio invisibile che lega dati, fiducia e reputazione, sarà visibile anche per le intelligenze artificiali e saprà trasformare quella visibilità in vendite, autorevolezza e forza di brand.

Gli altri resteranno fermi al palo, spettatori di un cambiamento che non concede tempi supplementari.

Grazie a Duane Forrester per questa proficua conversazione, ci vediamo alla prossima puntata!

Roberto Serra

Mi chiamo Roberto Serra e sono un digital marketer con una forte passione per la SEO: Mi occupo di posizionamento sui motori di ricerca, strategia digitale e creazione di contenuti.

13 commenti su “SEO Confidential – La nostra intervista esclusiva a Duane Forrester”

    1. Walter Benedetti

      La sopravvivenza del più veloce. Ecco la vera lezione. Il web non è un giardino fiorito. È una giungla. Pochi capiscono. Solo chi corre sul filo del rasoio resta in piedi. È così.

    2. Forrester colpisce nel segno! 🎯 Il web non è una favola. È un gioco di adattamento rapido. 🏃‍♀️ Chi non si aggiorna, resta indietro. 🤷‍♀️ Questo mi fa pensare: i nostri dati sono al sicuro da questa “sopravvivenza”? 🤔

  1. Forrester, un faro nel buio. Il web: un campo di battaglia, non una lotteria. Chi ha la mappa, vince. Io, quella mappa, la sto già decifrando.

  2. Benedetta Donati

    Il web? Una corsa a perdifiato. La sopravvivenza è un dato di fatto. Chi corre più veloce, vince. Il mio paranoico senso di analisi lo conferma.

    1. Giovanni Graziani

      Ah, il solito ritornello. “Sopravvivenza del più forte”. Come se internet fosse una novità. Per me, è sempre stato così, anche prima delle IA. Adattarsi? Certo. Ma questo non lo rende meno una giungla. Chi ha le palle le fa.

  3. Forrester colpisce nel segno. Il web è una giungla, non un orto. Chi si adatta, prospera. Le macchine che rispondono sono solo un nuovo ramo su cui arrampicarsi, non una scorciatoia. Il gioco è sempre lo stesso: essere più furbi, non solo più veloci.

    1. Andrea Ruggiero

      La metafora del fiume è azzeccata. Il web, un torrente. Adattarsi: l’arte di restare a galla. Il futuro? Un’altra cascata.

  4. Maurizio Greco

    Forrester dipinge un quadro netto: il web non è un giardino ordinato, ma un campo di battaglia darwiniano. L’agilità è la moneta di scambio per la sopravvivenza. Che spavento.

    1. Nicola Caprioli

      Ah, Forrester predica la giungla. La mia analisi data dice che l’adattabilità è un alias per la manipolazione algoritmica, non la vera competizione. Pensateci bene.

  5. Giovanni Battaglia

    Sopravvivenza del più forte”? Parola grossa. Il web è un fiume in piena, non una giungla. Chi naviga più fluido, non chi aggredisce. La velocità è tutto, i fatti parlano.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Ricevi i migliori aggiornamenti di settore