Barry Adams individua in Google Discover la scorciatoia più appetibile, ma avverte: è instabile e soggetto a volatilità. La vera strada a lungo termine resta la diversificazione
La SEO sta vivendo una mutazione senza precedenti: AI Overviews e AI Mode stanno cambiando il modo in cui si compete sui motori di ricerca, mentre Google rende sempre più difficile accedere ai dati che contano davvero.
Per chi costruisce il proprio business online, non si tratta più di “restare aggiornati”, ma di capire – e farlo in fretta – come muoversi in un terreno così precario e instabile.
Da questa esigenza nasce SEO Confidential: una serie di interviste con le menti più brillanti della SEO internazionale, pensata per offrire analisi solide, prospettive strategiche e idee utili a cogliere le opportunità della nuova ricerca online.
Oggi siamo molto felici di dialogare con Barry Adams, uno dei più esperti consulenti SEO per editori a livello internazionale. Barry ha oltre 25 anni di esperienza, ha fondato Polemic Digital, cura il sito SEO for Google News e ha collaborato con nomi come The New York Times, The Guardian, Euronews e News UK.
Con lui abbiamo parlato della crescente opacità nei dati di Google, del rischio che l’IA sottragga traffico vitale agli editori, della necessità di ridisegnare l’esperienza utente e delle strategie per mantenere un brand memorabile anche quando i contenuti vengono sintetizzati dalle IA.
Come si può rimanere in primo piano quando Google riduce lo spazio a disposizione? E quanto vale parlare di ottimizzazione per l’IA se i nuovi “motori di risposta” tendono a parafrasare più che a citare?
Sono le domande a cui Barry ha risposto senza giri di parole, in un confronto che punta a capire quali strategie possono fare la differenza oggi.
“I numeri sono sempre stati delle ipotesi, i dati sono sempre stati inaffidabili”, ci ha detto Barry Adams
Oggi Google offre sempre meno trasparenza sui dati davvero utili ai professionisti SEO. Se in Search Console non è possibile distinguere il traffico proveniente da AI Overviews da quello generato da AI Mode, come si possono prendere decisioni informate? E, soprattutto, che senso ha parlare di strategia SEO se mancano le metriche su cui basarla?
Il fatto è che i SEO e i digital marketer, per troppo tempo, sono stati un po’ troppo creduloni con i dati che analizzano.
In realtà, ogni fonte di dati è imperfetta: i numeri sono sempre stime, mai verità assolute.
Se credete davvero che i report di Google Analytics 4 rappresentino fedelmente ogni singolo visitatore e riflettano con precisione il comportamento reale degli utenti sul sito… beh, allora ho dei fantastici immobili sul mare in Austria da vendervi!
L’inaffidabilità dei dati non è una novità: è sempre stata parte del gioco. Eppure, questo non ha mai impedito ai professionisti di fare il loro lavoro.
Ricordo quando Google ha rimosso i dati relativi alle parole chiave di ricerca organica da GA (il cosiddetto problema “not provided”) e i SEO pensavano che questo avrebbe ucciso il nostro settore. Indovinate un po’? Non è successo nulla. Ci siamo semplicemente adattati e abbiamo imparato ad affrontarlo.
Un altro esempio: La maggior parte degli editori di notizie fa molto affidamento sulla visualizzazione dei propri articoli nel carosello delle notizie principali nella parte superiore della pagina di ricerca di Google per le query relative alle notizie.
Tuttavia, Google non ha mai fornito dati sulla visibilità delle notizie principali. Il posizionamento in quell’area è trattato esattamente come quello nei risultati organici generali, senza alcun rapporto o filtro dedicato.
Questo, però, non ha mai fermato gli editori: hanno continuato a ottimizzare i propri siti per Google e a usare strumenti di terze parti per monitorare le notizie principali. Con le AI Overviews sarà la stessa cosa. Troveremo il modo di tracciarle e adatteremo le strategie SEO di conseguenza.
Probabilmente, a un certo punto, arriverà anche un rapporto separato per AI Mode. Al momento, AI Mode è una scheda distinta e, storicamente, Google tende a fornire filtri e report specifici in Search Console per ogni scheda separata nei risultati di ricerca.
In che misura AI Mode rappresenta un salto rispetto agli AI Overviews, sia in termini tecnologici che di impatto potenziale sul traffico?
AI Mode sembra basarsi su una tecnologia più evoluta rispetto agli AI Overviews. Mentre questi ultimi generano risposte in tempo reale attingendo soprattutto ai dati di addestramento di Gemini, AI Mode utilizza tecniche avanzate di query fan-out per cercare fonti aggiornate e poi sintetizzarle.
Questo gli consente di rispondere anche su temi di attualità, cosa che gli AI Overviews non fanno, perché Gemini non è ancora addestrato sulle ultime notizie. Ed è proprio qui che sta il problema per gli editori: con AI Mode, gli utenti possono ottenere i titoli più recenti e poi porre domande di approfondimento, ricevendo sintesi pronte senza mai aprire un articolo. In pratica, AI Mode è capace di riassumere le notizie al posto vostro.
Le AI Overviews non compaiono per le query che mostrano un riquadro con le notizie principali, motivo per cui finora gli editori di news non ne hanno risentito in modo significativo. Con AI Mode, però, lo scenario potrebbe cambiare radicalmente, con perdite di traffico potenzialmente pesanti per tutti gli editori, non solo quelli di notizie.
Detto questo, è probabile che Google non voglia azzerare il flusso di visitatori verso gli editori e stia cercando un equilibrio: integrare l’IA nella ricerca senza ridurre troppo il traffico. L’esperimento più recente, Web Guide, va in questa direzione e sembra indicare la volontà di trovare un punto d’incontro tra AI Mode e la ricerca tradizionale.
Barry, tu hai sottolineato come la frustrazione dell’utente verso l’esperienza dei siti web moderni favorisca l’uso dell’AI Mode. I publisher hanno ancora margine per migliorare l’usabilità o siamo ormai troppo avanti in questa dinamica di “disintermediazione”?
Gli editori hanno sempre margini di miglioramento per quanto riguarda l’esperienza utente. Se un editore vuole fidelizzare il proprio pubblico, una UX eccellente deve essere uno dei pilastri della sua strategia. Troppo spesso le esigenze commerciali di un sito web hanno prevalso su quelle degli utenti, e questa dinamica è insostenibile. Ecco perché AI Mode è così allettante per gli utenti, poiché consente di interagire con i contenuti del web senza gli ostacoli che un sito web medio impone ai propri utenti.
Se gli editori vogliono davvero fidelizzare il proprio pubblico, dovranno creare esperienze senza contrattempi e rallentamenti per i propri lettori. Mi vengono in mente i paywall (che possono eliminare la necessità di pubblicità) e le app dedicate. Inseguire i click monetizzati con la pubblicità è un modello di business con rendimenti sempre più bassi e, a mio avviso, dovrebbe essere in gran parte abbandonato.
In AI Mode anche le notizie vengono sintetizzate senza citazioni dirette a fonti giornalistiche. Credi che questo segni l’inizio di una marginalizzazione definitiva del giornalismo nei risultati di Google?
AI Mode fornisce link alle fonti, ma è improbabile che gli utenti ci clicchino con la stessa frequenza dei risultati di ricerca tradizionali. Non penso che Google consideri il giornalismo un’attività marginale; è più probabile che vengano avviati programmi per remunerare gli editori quando i loro contenuti vengono utilizzati in AI Mode.
Potrebbero nascere modelli di licenza, forse come evoluzione dell’attuale programma Extended News Previews. Google vuole sostenere il giornalismo, ma non fino al punto che gli editori vorrebbero.
Tra le strategie di sopravvivenza che suggerisci – Discover, diversificazione e branding diretto – quale credi sia realisticamente più percorribile per un editore medio? E quale più sostenibile nel lungo termine?
La strategia più allettante è Discover. È relativamente facile da ottimizzare e può dare risultati immediati. Tuttavia, Discover è anche uno dei canali meno solidi, con un alto grado di volatilità, una grande vulnerabilità agli aggiornamenti degli algoritmi ed è spesso incline a premiare il clickbait a basso costo.
Consiglio ai miei clienti di ottimizzare Discover solo nella misura in cui ciò non comprometta in alcun modo la qualità del loro giornalismo. Ma è più facile a dirsi che a farsi.
Penso che la diversificazione sia la strategia più sostenibile, ma anche la più difficile. Significa investire in canali diversi, formati di contenuto diversi, modalità di fruizione diverse e pensare alla propria produzione editoriale in modo fondamentalmente diverso. Ho il sospetto che la maggior parte degli editori non sia disposta o in grado di farlo. Quelli che lo sono sopravviveranno e prospereranno nell’era dell’intelligenza artificiale.
Si parla spesso di diversificazione, ma per molti piccoli e medi publisher entrare in Discover o Top Stories è sempre più difficile. Google ha già deciso chi può restare visibile e chi no? Il mercato è ormai chiuso, e lo sarà sempre di più?
Il mercato non è chiuso, ma è un gioco a somma zero: un nuovo editore può trovare spazio, ma solo a costo di scalzare qualcun altro. Farlo è difficile e richiede uno sforzo continuo.
La competizione è feroce e le buone intenzioni non bastano. Per emergere negli spazi limitati di Top Stories e Discover servono adattamento costante, attenzione ai propri punti di forza e alle caratteristiche che rendono unico il brand editoriale, oltre alla capacità di mettere le esigenze del pubblico davanti a quelle dell’editore stesso.
Molti publisher inseguono l’ottimizzazione per l’IA con approcci tecnici o semantici. Ma secondo te è davvero possibile ottimizzare per un sistema che, come dici, “rigurgita contenuti più che citarli”?
Metterei in discussione la validità di queste tattiche di “ottimizzazione IA”. Quasi tutti questi consigli si basano su una comprensione incompleta del funzionamento dei modelli di linguaggio largo (LLM) o sono consigli SEO riciclati con un’etichetta diversa (ad esempio GEO) in modo che l’agenzia possa addebitare di più per lo stesso servizio.
Penso che l’ottimizzazione per l’IA sia simile all’ottimizzazione per Google. Si può cercare di stare al passo con gli algoritmi cercando di trovare “cheat code” e trucchi per ottenere traffico, oppure si può cercare di conquistare il pubblico e lasciare che siano gli intermediari come Google o ChatGPT a decidere se dare visibilità ai propri contenuti. Il primo approccio non ha mai portato a un successo duraturo. Il secondo sì.
Se i publisher chiudono, il contenuto originale sparisce. Ma se il contenuto sparisce, anche l’IA resta senza dati da cui attingere. Non è un modello insostenibile per definizione? Google sta distruggendo il pozzo da cui si abbevera?
Faccio l’avvocato del diavolo: Google non ha bisogno di un miliardo di siti web da scansionare, indicizzare e classificare. Ogni possibile informazione e ogni possibile servizio o prodotto è già disponibile centinaia di volte su diversi siti web che competono tra loro. Se il web fosse dieci volte più piccolo, Google avrebbe comunque tutto ciò di cui ha bisogno per fornire risultati di ricerca e risposte IA ai propri utenti. Un web più piccolo andrebbe bene per Google, riducendo la quantità di URL che dovrebbe scansionare e indicizzare e abbassando significativamente i costi dei suoi sistemi di ricerca.
Ma un web più piccolo avrebbe conseguenze economiche e sociali rilevanti. E non possiamo permettere che siano le aziende della Silicon Valley a decidere, da sole, come e quanto ridurlo. Una piattaforma con il potere di Google dovrebbe essere regolamentata, così da evitare che, nella sua costante corsa alla crescita, possa provocare danni economici su larga scala.
Hai scritto che “il peggio che può capitare a un publisher è essere dimenticabile”. Cosa rende oggi un brand davvero memorabile agli occhi di utenti e algoritmi?
Penso che sia diverso per ogni marchio. Un editore non dovrebbe fare supposizioni interne su ciò che il proprio pubblico pensa di lui. Il consiglio numero uno che darei in questo caso è “parla con il tuo pubblico”. Chiedi loro cosa pensano di te. Chiedi loro perché ti leggono. Cosa gli piace di te, cosa non gli piace, cosa vorrebbero di più, cosa vorrebbero di meno. Può essere un esercizio estremamente illuminante e dovrebbe essere fatto regolarmente.
Allo stesso tempo, il tuo pubblico non sa tutto. Non aver paura di sperimentare al di fuori del quadro delle risposte dei tuoi lettori. A volte il pubblico non sa cosa vuole finché non glielo mostri. Quindi, tieni conto del feedback del tuo pubblico, ma sperimenta anche al di là di quel feedback con nuovi tipi di contenuti e formati.
Al momento l’adozione di AI Mode è bassa, ma ipotizzi che Google possa integrarlo più visibilmente nella SERP o renderlo il default al posto dei risultati classici. Se questo accadesse, quali sarebbero secondo te gli effetti concreti e immediati per editori e publisher?
Se AI Mode diventasse l’esperienza di ricerca predefinita, la maggior parte degli editori subirebbe una perdita di traffico immediata e disastrosa. Tuttavia, è improbabile che Google compia un passo così radicale: conosce bene l’impatto che avrebbe e sa che le reazioni negative sarebbero enormi. Le AI Overviews hanno già generato un forte contraccolpo mediatico, e AI Mode ne provocherebbe uno ancora più violento. Google cercherà piuttosto un equilibrio.
La vera preoccupazione a breve termine per l’azienda non è perdere utenti a favore di OpenAI, ma riuscire a offrire un’esperienza IA paragonabile – o migliore – di quella di ChatGPT senza compromettere in modo sostanziale il proprio motore di ricerca. Una sfida tutt’altro che semplice.
Fatti ricordare anche quando l’IA riduce il tuo lavoro a poche righe
Dalle parole di Barry Adams emerge un messaggio chiaro: la SEO non è mai stata una scienza esatta e oggi lo è ancora meno. L’illusione di poter basare ogni decisione su dati perfetti è tramontata; quello che resta è la capacità di leggere i segnali, adattarsi e muoversi con lucidità in un mercato dove le regole cambiano di continuo.
AI Overviews e AI Mode, come ti ho detto fino allo sfinimento, stanno ridisegnando le dinamiche della ricerca. Non si tratta più di presidiare soltanto la SERP tradizionale, ma di farsi riconoscere e citare da sistemi IA che sintetizzano, selezionano e filtrano le informazioni prima che l’utente arrivi sul sito.
E qui permettimi una considerazione: in questa fase, ottimizzare per un motore di ricerca non significa più rincorrere le keyword di tendenza, ma costruire un ecosistema di contenuti e segnali di brand così forte da educare l’IA a considerarti una fonte attendibile.
Ciò richiede coerenza tematica, profondità di analisi e una distribuzione capace di intercettare l’utente ovunque si informi. La SEO “post-IA” sarà vinta da chi saprà fondere autorità editoriale e strategia di presenza, facendo in modo che, davanti a una domanda, l’algoritmo pensi subito a te come risposta.
Per questo, il vero obiettivo non è “ottenere click”, ma diventare un riferimento autorevole. Serve diversificare canali e formati, investire in un’esperienza utente priva di ostacoli che rallentino o disturbino la navigazione, e costruire un brand che resti impresso anche quando il contenuto viene compresso in poche righe generate dall’IA.
La domanda non è più “Come ottimizzare per Google?”, ma “Come rimanere rilevanti quando Google decide cosa mostrare e cosa no?”.
Chi saprà dare risposte di valore – e farlo in modo costante – sarà quello che l’intelligenza artificiale continuerà a citare e a considerare. Tutti gli altri rischiano di scivolare ai margini, anche se tecnicamente “posizionati”.
Ringrazio di cuore Barry Adams per aver condiviso con noi una visione lucida e diretta su quello che ci aspetta. Alla prossima puntata di SEO Confidential: il viaggio nel futuro della ricerca non si ferma di certo qui.
#avantitutta
Google Discover: una scorciatoia tentatrice come un miraggio nel deserto digitale, ma la vera oasi resta la diversificazione. Interessante!
Discover, un’illusione. Diversificare resta il pane quotidiano, non il dessert. I dati cambiano volto.
Discover: scorciatoia effimera. Diversificare: pratica necessaria. La solita storia con dati che cambiano.