SEO Confidential – La nostra intervista esclusiva a Harry Clarkson-Bennett sul futuro della ricerca nell’era dell’IA

Tra LLM, perdita di traffico organico, Discover e dati di addestramento delle IA, emergono nuove tensioni tra piattaforme ed editori (e nuove dinamiche per la visibilità online)

Premi play e ascolta di cosa tratta l’intervista a Harry Clarkson-Bennett

La SEO sta attraversando una delle fasi più turbolente della sua storia. Tra AI Overviews, calo del traffico organico, cambiamenti in Google Discover e nuovi equilibri tra piattaforme e editori, molte delle certezze su cui si è costruita la strategia editoriale degli ultimi quindici anni stanno rapidamente vacillando.

Chi lavora nell’editoria, nel marketing o nella SEO lo percepisce ogni giorno: il rapporto tra contenuti, visibilità e distribuzione sta cambiando in profondità.

Per capire meglio cosa sta accadendo, in questo nuovo episodio di SEO Confidential abbiamo intervistato Harry Clarkson-Bennett, SEO Director di The Telegraph e autore della newsletter internazionale Leadership in SEO che ti consiglio vivamente di seguire.

Harry ha quasi un decennio di esperienza tra agenzie, progetti editoriali, siti di affiliazione e strategie di crescita organica e osserva la ricerca da un punto di vista privilegiato: quello di chi deve trasformare teoria e modelli algoritmici in risultati concreti per uno dei più importanti editori europei.

Nel corso della nostra intervista discuteremo di alcuni dei temi più scottanti del momento: il ruolo della chiarezza nei contenuti nell’era degli LLM, il problema dell’attribuzione delle fonti nelle AI Overviews, l’impatto delle nuove tecnologie sulla visibilità degli editori, il futuro di Google Discover, fino alle dinamiche più controverse della SEO contemporanea, tra drop domain, abuso dei canonical e spam generato dall’IA.

Ti consiglio di leggere con attenzione le sue risposte, così dirette e ricche di spunti, per comprendere come sta cambiando davvero la ricerca. Ecco qui la nostra conversazione con Harry!

Harry Clarkson-Bennett intervistato dal SEO Roberto Serra
Harry Clarkson-Bennett

“A un certo punto IA e LLM dovranno pagare per avere dati di qualità, ma affinché ciò avvenga gli editori devono restare uniti”

Nel tuo articolo “Information Retrieval Part 1: Disambiguation” sostieni che motori di ricerca e LLM premiano contenuti “facili da capire”, e non quelli realmente migliori. Non c’è il rischio che questa logica finisca per penalizzare complessità, pensiero critico e contenuti davvero originali, favorendo una standardizzazione dell’informazione che Google dice di voler combattere?

Rispondere in modo diretto alla domanda dell’utente è sempre stato un principio centrale nella ricerca. Offrire alle persone ciò che stanno cercando nel minor tempo possibile favorisce un’interazione positiva con il contenuto, anche perché la soglia di attenzione è limitata. Questo approccio contrasta con una vecchia abitudine della SEO che spingeva a produrre testi molto lunghi, spesso intorno alle 2000 parole, anche quando non era realmente necessario.

Google ha introdotto sistemi di valutazione basati su un ampio consenso tra le fonti, progettati per limitare la diffusione della disinformazione. Ciò non significa che le query più complesse o sfumate debbano avere una sola risposta. In molti casi è legittimo presentare più interpretazioni, opinioni o prospettive diverse.

Diventa però essenziale mantenere chiarezza nella struttura e nella presentazione delle informazioni. Titoli ben organizzati, risposte esplicite e una sequenza logica dei contenuti aiutano sia gli utenti sia i sistemi di ricerca a comprendere il significato della pagina.

La chiarezza riguarda anche gli aspetti tecnici: dati strutturati, indicazione dell’autore, relazioni tra entità, presenza nel knowledge graph, profili social e altri segnali che aiutano i motori di ricerca a identificare con precisione persone, organizzazioni e contenuti.

In un contesto sempre più affollato da contenuti generati con l’intelligenza artificiale, la capacità di essere chiari, verificabili e privi di ambiguità diventa ancora più importante. La disambiguazione delle informazioni rappresenta uno dei fattori chiave per mantenere credibilità e visibilità nei sistemi di ricerca.

Entrare nei dati di addestramento delle IA sta diventando sempre più decisivo per contare nell’ecosistema della ricerca basata sull’IA, ma l’accesso a questi dataset è ormai mediato da accordi commerciali, paywall e grandi piattaforme. Non stiamo passando da un web aperto a un sistema di visibilità riservato a chi può permettersi di essere acquisito o integrato?

Tutti gli editori devono avere un impatto. Non basta produrre contenuti che ripetono risposte già disponibili o pubblicare notizie senza un vero ragionamento o senza un punto di vista diverso da quello dominante. Questo vale ancora di più per gli editori più piccoli, che devono riuscire a emergere nel rumore informativo, diffondere i propri contenuti e farli arrivare alle persone giuste. In altre parole, devono conquistare spazio con determinazione.

Un editore può controllare solo ciò che accade all’interno delle proprie pagine. Può scegliere di essere chiaro, rigoroso e originale. Sono elementi fondamentali. Allo stesso tempo non è necessariamente indispensabile bloccare l’accesso ai bot. Oltre il 60% dei modelli linguistici di grandi dimensioni è stato addestrato utilizzando dataset provenienti da Common Crawl.

Poiché molti grandi editori stanno impedendo ai loro contenuti di essere utilizzati per l’addestramento, questa situazione potrebbe persino rappresentare un’opportunità per gli editori più piccoli, almeno per chi ritiene che gli LLM possano offrire visibilità o valore.

Molti editori stanno comunque bloccando i bot per due ragioni principali. La prima è che i contenuti sono stati spesso utilizzati da terze parti per scopi commerciali senza autorizzazione. La seconda riguarda la volontà di negoziare accordi economici con le aziende che sviluppano questi modelli.

Nel breve periodo questo comporta un compromesso sul piano della visibilità nei sistemi basati sull’intelligenza artificiale. Per la maggior parte degli editori, però, il valore immediato resta limitato. Si tratta di un cambiamento strutturale che sta ridefinendo il rapporto tra piattaforme e contenuti. In diversi casi gli editori stanno iniziando a coordinarsi per esercitare pressione sulle IA che hanno bisogno di dati affidabili e di alta qualità per migliorare continuamente i propri modelli.

Parli apertamente di un rischio di model collapse dovuto alla scarsità di dati di qualità e all’uso crescente di dati sintetici. Non c’è il pericolo che l’IA finisca per rafforzare una visione sempre più autoreferenziale del web, dove pochi brand e pochi punti di vista continuano a rimbalzare all’infinito?

Sì, è proprio questo il rischio! Credo che a un certo punto queste aziende dovranno pagare per avere “dati” di qualità, ma affinché ciò avvenga gli editori devono restare uniti.

Google Discover sembra premiare soprattutto le performance iniziali dei contenuti, come il CTR e l’engagement nelle prime ore dopo la pubblicazione. Fino a che punto ha senso spingere sulla “clickability” senza rischiare di danneggiare nel tempo la credibilità editoriale e il rapporto con i lettori?

Credo che non valga più la pena puntare esclusivamente sulla cliccabilità, soprattutto su Discover. Ritengo che l’aggiornamento dell’algoritmo di Discover sia stato progettato proprio per combattere questo tipo di contenuti. Il titolo e l’immagine devono essere molto cliccabili, ma devono comunque descrivere accuratamente il contenuto della pagina.

Ma Google Discover non premia soltanto il coinvolgimento iniziale. Se un contenuto risulta interessante per un determinato gruppo di utenti e quel gruppo interagisce in modo positivo, l’algoritmo tende a distribuirlo sempre più all’interno dello stesso pubblico e verso segmenti simili. I primi click restano quindi molto importanti, ma ciò che conta davvero è la qualità dell’interazione. Un contenuto deve riuscire a superare il livello di coinvolgimento che ci si aspetta nelle prime fasi di diffusione.

In questo contesto l’evoluzione del giornalismo premia comportamenti che favoriscono una relazione più diretta con il pubblico. Un esempio riguarda il ruolo dei giornalisti come figure riconoscibili: incoraggiarli a costruire un proprio profilo e a condividere i contenuti contribuisce ad amplificarne la diffusione e a rafforzare il rapporto con i lettori.

Negli ultimi mesi contenuti spam piuttosto evidenti, domini scaduti riciclati e siti costruiti esclusivamente per la monetizzazione sembrano riapparire anche nelle SERP più competitive. Si tratta di un problema temporaneo legato all’ondata di IA oppure è un segnale strutturale di una perdita di controllo da parte di Google?

Negli ultimi dieci anni molti editori hanno fatto un uso eccessivo della tecnologia. La ricerca dovrebbe essere uno strumento al servizio del giornalismo, non il fattore che ne determina le scelte editoriali. La possibilità di produrre contenuti su una scala mai vista prima ha reso più complesso mantenere standard qualitativi elevati. Allo stesso tempo Google, sul fronte dello spam, sembra aver perso parte del controllo della situazione.

È possibile che si tratti di una fase temporanea, ma è probabile che alcune pratiche problematiche, come il fenomeno dei drop domain o l’abuso dei canonical, continuino a circolare ancora per qualche tempo.

(Un drop domain è un dominio internet che non è stato rinnovato dal proprietario e quindi scade e torna disponibile per essere registrato da chiunque. Nella SEO viene spesso acquistato perché mantiene ancora backlink, autorità o storico, che alcuni cercano di sfruttare per ottenere vantaggi nel posizionamento, N.d.R.).

(L’abuso dei canonical si verifica quando il tag rel="canonical" viene usato in modo scorretto per far credere a Google che pagine diverse siano in realtà la stessa pagina. In pratica si imposta il canonical verso un’altra URL per trasferire valore o manipolare l’indicizzazione, anche quando i contenuti non sono realmente duplicati, N.d.R.).

I dati mostrano un crollo significativo del traffico da Google Search e Discover verso i siti dei publisher, soprattutto dopo l’introduzione delle AI Overviews. Si tratta di una fase di assestamento tecnologico oppure di un cambiamento strutturale che rende sempre meno centrale il ruolo dei media come fonte diretta di traffico?

Un cambiamento strutturale, non c’è dubbio per me. Le AI Overviews presentano diversi problemi. Uno dei più evidenti riguarda l’attribuzione delle fonti: Google spesso non indica in modo chiaro da dove provengono le informazioni utilizzate nelle risposte generate dall’intelligenza artificiale. Non sembra una semplice mancanza tecnica, ma una scelta legata al modello economico della piattaforma.

Questa dinamica sta producendo un cambiamento strutturale nel settore editoriale. Molti editori stanno iniziando a diversificare i propri contenuti, investendo di più nelle figure dei singoli giornalisti, nei video e in una presenza più solida sui social media.

La ragione è semplice: l’attenzione del pubblico si è spostata. Sempre più persone consumano informazione attraverso formati e piattaforme diverse da quelle su cui l’editoria tradizionale ha costruito la propria presenza. Per questo gli editori sono costretti a ripensare le proprie strategie e ad adattarsi a un ecosistema informativo che sta cambiando rapidamente.

Oltre il ranking: credibilità delle fonti e forza del brand diventano il nuovo terreno della competizione

Dopo aver letto questa intervista, la domanda è quasi inevitabile: dove sta andando davvero la ricerca online?

La conversazione con Harry C. Bennett ha messo in luce diversi segnali che non possono essere ignorati. È emersa con forza l’importanza della chiarezza nei contenuti, della disambiguazione delle informazioni e della capacità di rendere articoli, autori ed entità facilmente comprensibili per i sistemi di ricerca e per gli LLM.

Allo stesso tempo abbiamo visto come le AI Overviews e i nuovi sistemi basati sull’intelligenza artificiale abbiano già prodotto un cambiamento strutturale nella distribuzione del traffico.

Nel corso dell’intervista sono emersi anche altri punti decisivi: il vero ruolo dell’engagement su Discover, i limiti delle strategie basate solo sulla cliccabilità, il tema sempre più delicato dei dati utilizzati per addestrare l’intelligenza artificiale, fino ai problemi legati allo spam, ai drop domain e ad alcune pratiche SEO che stanno tornando a circolare.

Dal punto di vista di chi fa impresa, l’intelligenza artificiale rappresenta un cambiamento profondo nel modo in cui l’informazione viene distribuita e consumata. Quando le risposte vengono generate direttamente nelle piattaforme, la competizione si sposta dal semplice ranking alla credibilità delle fonti e alla forza del brand.

Le aziende più lungimiranti (sì, anche i tuoi competitor!) stanno investendo in autorevolezza, nella riconoscibilità degli autori e in una presenza solida su più canali. Per queste ragioni, diventa centrale trasformare competenza e contenuti in fiducia reale.

Fiducia significa attenzione, relazioni con il pubblico e, alla fine, risultati concreti: clienti, conversioni e crescita.

Ringraziamo Harry per questo scambio di opinioni e ringraziamo te per aver letto fin qui.

Ci ritroviamo la prossima settimana con un nuovo ospite e una nuova intervista, sempre qui su SEO Confidential. Perché capire dove sta andando la ricerca oggi significa prendere decisioni migliori per il business di domani.

Roberto Serra

Mi chiamo Roberto Serra e sono un digital marketer con una forte passione per la SEO: Mi occupo di posizionamento sui motori di ricerca, strategia digitale e creazione di contenuti.

33 commenti su “SEO Confidential – La nostra intervista esclusiva a Harry Clarkson-Bennett sul futuro della ricerca nell’era dell’IA”

  1. Isabella Riva

    Abbiamo fornito per anni gli ingredienti migliori. Ora il cuoco li usa per il suo menù, senza nemmeno invitarci. È giusto che il conto lo paghiamo sempre e solo noi?

  2. Angela Ferrari

    Tutti in fissa con il calo di traffico. Ma la visibilità da sola non paga le fatture. L’IA filtra la gente. A me serve solo capire come intercettare quella giusta.

    1. Andrea Ruggiero

      @Angela Ferrari L’IA fa da buttafuori, certo. Lascia entrare solo i clienti buoni. Peccato che il padrone del locale cambi le regole d’ingresso ogni mattina, senza dirlo a nessuno.

      1. Angela Ferrari

        @Andrea Ruggiero Bella metafora. Il punto è che abbiamo passato anni ad arredare la nostra saletta privata dentro il suo locale, e ora ci cambia la serratura a giorni alterni. Mi chiedo se non sia ora di costruire un posto nostro.

        1. Andrea Ruggiero

          @Angela Ferrari Certo, un posto nostro. Ma con quali soldi, se il proprietario del locale si è sempre tenuto la maggior parte degli incassi?

    1. Giovanni, vendere è il finale, ma qui ci stanno togliendo il palco su cui recitare. Siamo diventati solo i suggeritori invisibili per lo spettacolo dell’IA, che si prende tutti gli applausi e gli incassi. È questa la nuova normalità che vogliamo accettare?

  3. Danilo Graziani

    L’ago della bussola impazzisce. Le certezze sono un ricordo. Questa perdita di controllo, lo ammetto, mi logora.

    1. Raffaele Graziani

      Federica, questa intelligenza artificiale mi sembra un gigante cieco che demolisce il nostro castello di carte pezzo per pezzo, mentre noi restiamo a contare le macerie di ciò che sapevamo fare.

  4. Paolo Pugliese

    Più che editori, siamo diventati addestratori non retribuiti per l’IA che ci renderà obsoleti. Un ciclo produttivo perfetto, ma al contrario.

    1. Giorgio Martinelli

      Paolo Pugliese, ci raccontano la favola del progresso mentre ingrassiamo l’algoritmo che ci farà fuori, e il bello è che lo facciamo gratis.

      1. Paolo Pugliese

        Giorgio Martinelli, la favola è sempre quella. E mentre ascoltiamo l’ennesima intervista, continuiamo a regalargli il lavoro che ci renderà inutili. Siamo noi i primi responsabili del nostro declino.

  5. Gabriele Caruso

    Ascoltiamo attenti il direttore d’orchestra, peccato che suoniamo su una nave che imbarca acqua. Io continuo a insegnare ai miei ragazzi come accordare i violini, nel dubbio. Almeno l’esecuzione sarà impeccabile mentre affondiamo.

  6. Clarissa Graziani

    Come mentor, dovrei predicare adattamento. Invece, mi sento un’amanuense che osserva l’invenzione della stampa. E prende appunti.

  7. Ci dicono come si starà al mondo domani e noi ci mettiamo in fila per imparare la nuova coreografia. Almeno ci teniamo in allenamento.

    1. Chiara Barbieri

      Andrea Gatti, più che allenamento, la chiamo obbedienza. Imparare coreografie imposte da altri è una perdita di tempo. Il punto non è ballare meglio, ma capire se vogliamo restare su questo palco. La passività è una scelta, non una condizione.

  8. Noemi Barbato

    L’ennesimo pezzo grosso che ci illumina su come adattarci al nuovo recinto che Google ci ha costruito intorno. Mi sembra una lezione su come arredare con gusto la propria cella, dimenticando di chiedere perché ci siamo stati rinchiusi.

  9. Alessio De Santis

    Il direttore del circo spiega come funzionano le fruste. Un valzer di numeri per contenuti senz’anima. Noi narratori suoniamo un’altra musica, una che non ha bisogno di essere “trovata”.

    1. Nicolò Sorrentino

      Alessio, capisco la tua metafora sulla musica. Per me la SEO non è una frusta, ma il palco migliore per farla ascoltare. La tecnica aiuta solo a riempire il teatro. Una bella melodia merita un pubblico, no?

  10. Alberto Parisi

    Che generosità sentire il carnefice spiegare al condannato come rendere l’esecuzione più efficiente; si impara sempre qualcosa sulla propria irrilevanza, dopotutto.

  11. Giovanni Battaglia

    Il macellaio che discute di zootecnia col vitello. Noi docenti, intanto, prendiamo appunti per la prossima lezione. Una farsa ben documentata.

  12. Chiara De Angelis

    Le piattaforme chiamano “nuove dinamiche” il saccheggio di contenuti. Noi consulenti diventiamo complici, insegnando alle vittime come farsi derubare con più efficienza. Una professione nobile.

    1. Isabella Sorrentino

      Chiara, insegniamo a sorridere mentre la casa brucia, chiamandola una riqualificazione energetica imposta dall’alto; ci si adatta a tutto, pare.

    1. Emanuela, per me non è un impero che crolla. È l’oceano che si ritira, lasciandoci a secco. Ora dobbiamo imparare a camminare.

  13. Sara Benedetti

    Si parla di nuovi equilibri, ma mi pare più un castello di carte scosso dal vento dell’IA. Gli editori forniscono i dati, le piattaforme raccolgono i profitti. Siamo sicuri che questo modello sia sostenibile a lungo termine?

    1. Isabella Sorrentino

      La sostenibilità è per chi possiede i server, non per chi scrive i testi che li riempiono. Trovo delizioso che questo metodico trasferimento di valore venga ancora chiamato “nuovo equilibrio” tra le parti.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Ricevi i migliori aggiornamenti di settore