SEO Confidential – La nostra intervista esclusiva a Saijo George sul futuro della SEO nell’era degli LLM

Tra contenuti assistiti dall’IA, reputazione online e piattaforme che trattengono sempre più traffico, emergono nuovi equilibri destinati a cambiare il modo di fare business online

Premi play e ascolta di cosa tratta l’intervista a Saijo George

Ben ritrovati a una nuova puntata di SEO Confidential, la rubrica in cui diamo voce agli esperti SEO più autorevoli al mondo per capire dove sta andando davvero il search marketing, senza filtri e senza luoghi comuni.

L’ospite di questa settimana è Saijo George, specialista SEO e GEO con base in Australia e una carriera nel settore abbastanza lunga da averlo visto cambiare pelle più volte: le best practice diventate penalizzazioni, i trucchi black hat di ieri trasformati in funzionalità ufficiali di Google. Oggi guida l’offerta SEO basata sull’intelligenza artificiale di Pathfinder Marketing, lavorando con clienti che vanno dalle piccole imprese ai marketplace enterprise con milioni di utenti.

Il suo punto di forza? Non si fida delle teorie: testa, misura e punta solo su ciò che porta risultati concreti.

In questa intervista, Saijo affronta alcune delle domande più urgenti per chi fa business online oggi: il rischio reale dell’IA nei contenuti, il calo del traffico organico, il futuro del commercio dentro le piattaforme AI e come costruire un brand che sopravviva quando Google trattiene sempre più valore per sé.

Se gestisci un sito web o un e-commerce, non perderti le sue riflessioni perché ti riguardano direttamente.

Saijo George intervistato dal SEO Roberto Serra

Prepara il tuo sito agli agenti AI: costruisci una presenza distribuita oltre i confini del tuo dominio

Tutti continuano a parlare del “rischio di penalizzazione” legato all’IA, anche se i dati dimostrano che oltre l’80% delle pagine ai primi posti nei risultati di ricerca utilizza già contenuti assistiti dall’IA: questa paura non è forse alimentata più dai consulenti e dalle agenzie che da Google stessa?

I “contenuti assistiti dall’IA” e i “contenuti di scarsa qualità generati dall’IA senza supervisione” non presentano lo stesso profilo di rischio, e Google li tratta in modo diverso. La statistica dell’80% è reale perché i contenuti assistiti dall’IA – aiuto nella ricerca, stesura, supporto alla revisione con un essere umano coinvolto nel processo – si posizionano bene.

Ma anche la penalizzazione di Google per l’abuso di contenuti su larga scala è reale ed è stata inviata agli editori. Essa prende di mira l’altra estremità: contenuti generati e pubblicati senza supervisione, in grande quantità, che nessun essere umano vorrebbe effettivamente leggere. Quindi non si tratta tanto di “consulenti che inventano un rischio”, quanto piuttosto di “un rischio che è stato erroneamente descritto come legato all’uso dell’IA, quando in realtà riguarda la qualità e la supervisione”.

Credo che non si tratti più al 100% di “umano” contro “IA”: il vero problema è la qualità dei contenuti.

Quando pensi che l’IA smetterà di essere un vantaggio competitivo e inizierà a diventare un vero problema?

Quando si tratta di creare contenuti – e non solo i post per i blog, ma anche siti web, landing page, annunci pubblicitari, video e così via – l’IA ha cambiato in modo significativo il flusso di lavoro di molte persone, e questo è in gran parte positivo.

Il rovescio della medaglia è l’enorme volume di contenuti che vengono semplicemente riformulati a partire da articoli esistenti. Questo rigurgito su larga scala è il vero problema, e non credo che si tratti di un problema futuro; sta già accadendo in questo momento.

Nel tuo lavoro quotidiano, per cosa utilizzi maggiormente l’IA: per migliorare la qualità e la profondità dei contenuti, o principalmente per accelerare la produzione e scalare volumi che altrimenti sarebbero difficili da gestire?

Entrambe le cose, ma più dal punto di vista della qualità e della ricerca. La uso molto per riassumere grandi quantità di contenuti in frammenti digeribili, per far emergere punti di vista che avrei potuto trascurare e per supportare il processo di ricerca in generale. I vantaggi in termini di velocità e scala sono reali, ma tendono a presentarsi come un sottoprodotto di un uso corretto finalizzato alla qualità, piuttosto che come obiettivo principale.

Si parla di “calo del traffico organico” come se fosse un problema tecnico di SEO, ma sembra più un cambiamento nelle regole stabilite da Google: il vero problema non è forse che Google ora trattiene più valore e invia meno traffico agli editori?

Sì, e credo che la divisione sia piuttosto netta in base al tipo di contenuto. I siti puramente informativi e quelli di affiliazione, che fungono da intermediari tra l’utente finale e il prodotto, ne risentiranno. La maggior parte di quei contenuti è già stata assimilata dai grandi modelli linguistici, quindi le risposte si trovano ora nei dati di addestramento e, man mano che questi si espandono, i click destinati agli editori diminuiscono. L’e-commerce e i servizi come idraulici ed elettricisti hanno ancora bisogno di qualcuno che svolga effettivamente il lavoro, quindi per ora sono più al sicuro.

Se il gioco ruota sempre più attorno al marchio e alla reputazione, come si fa concretamente a costruire quell’autorevolezza: contenuti proprietari, digital PR, recensioni, presenza editoriale… cosa fa davvero la differenza oggi in termini misurabili?

In definitiva, l’obiettivo è diventare la fonte citata dagli altri operatori del settore, il che significa ricerca originale, digital PR e ottenere menzioni nelle pubblicazioni che i modelli di linguaggio di grandi dimensioni (LLM) elaborano e utilizzano per il loro addestramento. Questo è l’obiettivo.

A breve termine, gli LLM si affidano anche in larga misura ai contenuti generati dagli utenti (UGC) quando verificano la veridicità dei risultati di ricerca, quindi un modo più semplice per entrare in gioco è quello di inserirsi prima in quelle comunità e conversazioni, per poi espandere da lì la presenza del proprio marchio sul web in generale.

Il cambiamento di modello mentale è la parte importante: l’IA non classifica le pagine, ma raccomanda i marchi. Ciò significa che non è necessario fare tutto sul proprio sito web; la propria presenza deve essere diffusa sul web in generale.

Di fronte a rischi concreti come la Negative GEO e gli attacchi alla reputazione, cosa dovrebbe fare in termini pratici un’azienda per difendersi: investire in PR digitali, controllare le fonti di terze parti, costruire segnali di fiducia… quali sono le leve più efficaci nelle operazioni quotidiane?

Tutto questo, ma oltre a ciò, devi tenere d’occhio come viene rappresentato il tuo marchio sul web in generale e all’interno di modelli specifici. Ciò significa controllare regolarmente cosa dicono i principali modelli di linguaggio di grandi dimensioni (LLM) sul tuo marchio, da quali fonti attingono e in che direzione sta andando la narrazione.

Se qualcosa di inesatto o dannoso viene ripetuto sulle piattaforme UGC, sui siti di recensioni o nei contenuti di terze parti, alla fine finirà per influenzare i risultati dei modelli. Individuarlo tempestivamente e intervenire sulla fonte è la leva più pratica che abbiamo a disposizione in questo momento.

Google vuole che gli utenti acquistino direttamente all’interno di Gemini, mentre OpenAI punta a influenzare le decisioni prima dell’acquisto: alla fine, chi controllerà il cliente, i marchi o le piattaforme?

Penso che tutti vogliano fare tutto questo. OpenAI ha recentemente ridimensionato il suo Instant Checkout perché l’adozione da parte degli utenti era bassa, e rivenditori come Walmart hanno riscontrato che gli acquisti in chat si convertivano a circa un terzo del tasso del proprio sito web.

Secondo me alla fine Google avrà la meglio. Il loro UCP (Universal Checkout Protocol, protocollo per acquisti e transazioni integrate tra agenti AI e piattaforme, N.d.R.) sta guadagnando un vero slancio; Amazon, Meta, Microsoft, Salesforce e Stripe sono appena entrati a far parte dell’UCP Tech Council, mentre l’ACP di OpenAI sta perdendo slancio (Agent Communication Protocol, standard proposto da OpenAI per la comunicazione tra agenti AI e servizi esterni, N.d.R.).

Se le persone possono acquistare senza mai visitare il tuo sito web, cosa dovrebbe fare oggi un’azienda per continuare a vendere: essere presente all’interno di queste piattaforme, ottimizzare i dati e i feed di prodotto, o costruire visibilità altrove? Da dove dovrebbero davvero iniziare?

Dovrebbero iniziare con l’ottimizzazione dei feed: dati di prodotto puliti, strutturati e accurati sono la base per tutto ciò che verrà dopo, perché è da lì che gli agenti AI attingono quando raccomandano o effettuano transazioni.

Da lì, occorre preparare il tuo sito per UCP e WebMCP (Web Model Context Protocol, protocollo che permette agli agenti AI di interagire direttamente con siti e servizi web, N.d.R.) in modo da poter partecipare attivamente quando gli agenti busseranno alla tua porta e, parallelamente a tutto ciò, investi nella crescita della presenza del tuo marchio sul web in generale. Gli agenti raccomandano i marchi, quindi più sei citato, recensito e menzionato nell’ecosistema, più probabilità hai di emergere in primo luogo.

Con l’ingresso dei modelli di linguaggio di grandi dimensioni (LLM) nel settore commerciale, non c’è forse un rischio crescente di perdere fiducia nelle risposte? Se i consigli saranno sempre più guidati da logiche commerciali, come potranno gli utenti distinguere tra consigli autentici e contenuti a pagamento o di parte?

Credo che Google e OpenAI temano la perdita di fiducia da parte degli utenti più degli utenti stessi; per loro si tratta di una minaccia esistenziale, quindi lotteranno con tutte le loro forze per correggere la rotta ogni volta che le cose inizieranno a prendere una piega sbagliata. La cosa interessante è che il modo in cui le persone consumano le informazioni ha già iniziato a cambiare.

Come SEO, dobbiamo osservare come si sta concretizzando questo cambiamento e dove possiamo effettivamente esercitare la nostra influenza. Per molto tempo, sono stati i dieci link blu su Google. Ora ci sono alternative reali che lo sfidano e, onestamente, come tutti gli altri nel settore, sto cercando di capirlo man mano che procediamo.

Non più “pagine da posizionare” ma “brand da raccomandare”

Quello che emerge dall’intervista con Saijo George è un quadro chiaro, anche se scomodo: il search marketing non è in crisi, si sta semplicemente spostando su un terreno nuovo e chi non lo capisce in tempo rischia di ottimizzare per un mondo che non esiste più.

Il messaggio pratico per te che gestisci un business è semplice: smettila di pensare in termini di “pagine da posizionare” e inizia a pensare in termini di “brand da raccomandare”.

Gli strumenti di intelligenza artificiale come ChatGPT o Gemini, quando rispondono a una domanda o consigliano un prodotto, non vanno a cercare chi ha il sito tecnicamente perfetto. Vanno a pescare i brand di cui si parla, quelli citati da altri siti, recensiti, menzionati nelle community. Se il tuo brand non esiste nella conversazione online, non esiste nemmeno nelle risposte dell’IA.

Tre cose concrete da fare adesso: tieni puliti e aggiornati i dati del tuo prodotto o servizio (attento a incongruenze ed errori!), entra nelle community online dove il tuo settore si confronta, e lavora per ottenere menzioni e citazioni da fonti autorevoli.

L’IA non è il problema. Il problema è usarla male, o peggio, non capire come sta ridisegnando le regole del gioco.

Grazie a Saijo George per la lucidità e la concretezza con cui ha affrontato ogni domanda.

Ci rivediamo alla prossima puntata di SEO Confidential,

#avantitutta

Roberto Serra

Mi chiamo Roberto Serra e sono un digital marketer con una forte passione per la SEO: Mi occupo di posizionamento sui motori di ricerca, strategia digitale e creazione di contenuti.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Ricevi i migliori aggiornamenti di settore