SEO Confidential – La nostra intervista esclusiva a Darwin Santos, il SEO del “Great Decoupling”

Il “Great Decoupling”, quando le impression crescono ma i click crollano (spiegato da chi ne ha coniato l’espressione)

Ascolta l’intervista in breve

Negli ultimi mesi, sempre più imprenditori stanno vivendo lo stesso incubo: le impression aumentano, ma i click crollano. Le pagine continuano a comparire nei risultati di ricerca, ma gli utenti si fermano alla risposta fornita dall’intelligenza artificiale di Google, senza visitare il sito.

Questo fenomeno ha un nome: “Great Decoupling”. A coniarlo è stato Darwin Santos, Senior Technical SEO e AI Innovation Product Manager, figura di riferimento a livello internazionale per aziende Fortune 100, top e-commerce e grandi testate online. Oltre a creare strumenti diventati standard nell’industria, come GSC Guardian, Santos è co-fondatore di AI Studio Lab, dove sviluppa soluzioni avanzate per integrare l’IA nei processi aziendali.

Lo abbiamo contattato per capire, direttamente dalla fonte, cosa sta accadendo dietro i numeri, perché il “Great Decoupling” non è una semplice penalizzazione di Google e come stanno cambiando le regole della competizione online nell’era della ricerca “agentica”.

Nelle sue risposte, Darwin non si è limitato a descrivere il problema: ha raccontato come lo vede dall’interno, quali strategie possono ancora funzionare e cosa fare oggi per non farsi schiacciare dal crollo dei click.

Un’intervista da leggere fino in fondo per capire come non restare indietro mentre il web cambia sotto i nostri occhi. Buona lettura!

Darwin Santos, intervistato dal SEO Roberto Serra

“Se gli agenti IA non trovano il tuo marchio, come potranno consigliarlo?”

Quando hai parlato per la prima volta del “Great Decoupling”, stavi semplicemente descrivendo un’anomalia nei dati o avevi già intuito che Google stava riscrivendo le regole del gioco, penalizzando i siti web a favore delle risposte della sua intelligenza artificiale?

Non ho visto un semplice picco, ma un vero cambio di fase. Il “Great Decoupling” è il momento in cui le impressioni continuano ad aumentare mentre i click diminuiscono. Non è una penalizzazione dei siti da parte di Google, ma un cambiamento strutturale nel modo in cui le persone ottengono le risposte.

L’esplosione di ChatGPT ha colto di sorpresa il mercato, incluso Google, che da anni aveva sistemi di chat interni ma non li aveva mai integrati nella ricerca principale. Con ChatGPT, Google ha accelerato: prima Bard (ora Gemini), poi SGE e AI Overviews, fino all’attuale AI Mode. La ricerca si sta trasformando da un elenco di link a un’esperienza “agentica” in cui la risposta viene prima di tutto.

Questo crollo dei click è dovuto esclusivamente all’efficienza dell’algoritmo o Big G ha consapevolmente deciso che i siti web sono diventati “intermediari inutili”?

È soprattutto una questione di comportamento degli utenti di fronte a una nuova interfaccia. Molti hanno capito che possono ottenere abbastanza informazioni da un chatbot o direttamente nella SERP e quindi si fermano lì.

I link restano importanti: Google ha ancora bisogno del web aperto per basare le proprie risposte e continua a mostrare le fonti. Ma il meccanismo è evidente: se la risposta sullo schermo soddisfa l’intento, meno persone cliccano. Gli utenti privilegiano la velocità, e l’interfaccia consente loro di fermarsi prima.

Alcuni sostengono che il Great Decoupling sia solo una condanna a morte per chi vive di contenuti generalisti. Ma esistono davvero settori “sicuri” o è solo questione di tempo prima che Google assorba tutto?

I modelli di IA non possono sostituire l’esperienza diretta. Possono sintetizzare, ma fanno ancora poco di più. Oggi i click più preziosi arrivano da chi ha ancora bisogno di compiere un’azione: chiedere un preventivo, prenotare, acquistare o verificare una risposta complessa e personale.

Qui sta l’opportunità: offrire competenza autentica, dati proprietari e contenuti fondati sull’esperienza. I sistemi di IA si nutrono di fonti pubbliche per imparare e citare; se non sei visibile, resti fuori. Meno click, ma con un’intenzione più alta.

Oggi, se un imprenditore continua a valutare il successo della sua attività con metriche pre-AI Overview, sta semplicemente buttando via i propri soldi? Oppure esistono ancora strategie “vecchio stile” che avranno senso nel 2025?

Le strategie classiche restano efficaci, ma dovrebbero essere integrate con nuove metriche. Si deve mantenere la salute tecnica del sito, l’architettura delle informazioni, la costruzione dell’entità e del marchio, i feed, la SEO locale e l’ottimizzazione delle conversioni.

A questo si aggiungono nuovi indicatori: frequenza di comparsa nelle AI Overviews, quota di citazioni in AI Mode, menzioni negli LLM, traffico proveniente da fonti IA e grado di “preparazione” dei contenuti per gli agenti, ossia se sono analizzabili dalle macchine e privi di ambiguità.

Occorre rafforzare le aree in cui l’AIO è meno presente, come immagini, video e notizie, e valorizzare le pagine di fine funnel che continuano a generare conversioni.

Google sostiene che le AI Overviews sono progettate per migliorare l’esperienza dell’utente. Ma i creatori di contenuti si ritrovano cannibalizzati da snippet sempre più completi, senza alcun ritorno. Non è forse una forma di espropriazione? Le informazioni prodotte dagli editori finiscono nei prodotti IA… senza che gli editori vedano un centesimo! Non è forse giunto il momento di rinegoziare l’accordo con la piattaforma? Pensi che CloudFlare e il suo “Pay Per Crawl” potrebbero essere utili?

Sostengo la remunerazione basata sul crawl e sull’accesso fin dall’inizio del 2023: se gli agenti IA utilizzano un contenuto al di fuori del sito, deve essere possibile misurarlo e riconoscerne il valore economico. La remunerazione dei creatori è fondamentale.

Sistemi come il “Pay Per Crawl” rappresentano un passo avanti rispetto al vuoto attuale. Non sono la soluzione definitiva – l’applicazione pratica e la sostenibilità economica restano complesse – ma, insieme a licenze dirette e a chiari meccanismi di opt-in/opt-out, offrono un percorso verso una remunerazione equa, mantenendo al tempo stesso per gli editori il vantaggio di essere individuati dagli agenti IA.

Nei tuoi articoli parli spesso dell’ascesa del Web Agentic. Ma in un contesto in cui l’IA non si limita a suggerire link, ma compila moduli, scrive e-mail e prenota servizi, quale ruolo hanno le aziende nella costruzione del proprio marchio? Come si fa a creare fiducia se l’intermediario non è più l’utente, ma un modello linguistico?

Gli agenti IA vanno trattati come utenti esperti e impazienti. È necessario essere leggibili e verificabili dalle macchine: pubblicare informazioni canoniche e strutturate – come prezzi, specifiche, politiche e ubicazioni – supportare le affermazioni con prove dirette e citazioni di terze parti, ed esporre endpoint facilmente utilizzabili dagli agenti, come HTML pulito, feed e azioni documentate, per consentire loro di completare i compiti in modo preciso. Un marchio che non può essere individuato dagli agenti non potrà essere raccomandato dagli agenti stessi.

Molti imprenditori sono sempre più frustrati dal calo del traffico organico, anche su siti di qualità. Se l’intelligenza artificiale riduce il web a un livello intermedio da sfruttare senza dare nulla in cambio in termini di visibilità, non stiamo andando verso una concentrazione del valore nelle mani di pochi? Che consiglio daresti a chi vuole sopravvivere nell’era post-Search?

Il valore si concentra già in poche piattaforme. L’approccio più efficace è diventare una fonte autorevole, degna di essere citata e analizzata. Servono contenuti originali, competenti e facilmente citabili, accompagnati da segnali di marchio solidi – come chiarezza dell’entità, recensioni, attività di PR e comunità attive – che i modelli e l’AIO possano riconoscere.

Occorre monitorare la nuova visibilità, ad esempio la quota di citazioni in AIO e le menzioni negli LLM, e diversificare la domanda con video, podcast, e-mail e community, intercettando quei click a maggiore intenzione che ancora restano.

Tu scrivi che “essere trovati non significa più essere visitati”. Ma se Google non invia più traffico e ChatGPT risponde senza citare le fonti, chi paga il conto della produzione dei contenuti? L’economia dell’attenzione è crollata: non stiamo forse vivendo la prima vera crisi sistemica dell’informazione online?

È un vero stress test per l’economia dei referral. Il lato positivo è l’esistenza di un nuovo canale per farsi trovare, garantendo che i contenuti siano presenti, analizzabili e attribuibili agli agenti. Allo stesso tempo, stanno emergendo nuove forme di remunerazione, come licenze e modelli di crawling a pagamento.

Finché la situazione non si stabilizzerà, il ROI arriverà da un numero inferiore di click ma con un’intenzione più alta, oltre che dalle conversioni a valle influenzate dalla scoperta mediata dagli agenti. È questo che va misurato, non il CTR del passato.

Big G assorbe contenuti per addestrare l’IA e restituisce solo visibilità senza click. In sostanza, si nutre di valore ma non lo ridistribuisce… In che misura questo modello è sostenibile, se non per Google stesso?

Se non regolato, il rischio è concreto: la “tragedia dei beni comuni” può diventare realtà. Due contromisure stanno prendendo forma: licenze su larga scala per piattaforme di notizie e community, e infrastrutture che fanno pagare il crawling invece di offrirlo gratuitamente.

La soluzione non è una singola misura, ma un pacchetto integrato che unisce prodotti, politiche e pagamenti, affiancato da una riottimizzazione dei marchi per aumentarne la visibilità agli occhi degli agenti e la capacità di generare conversioni.

Con AI Mode, Gemini e l’espansione delle AI Overviews, Big G ha scelto di cannibalizzare il proprio sistema di referral. Ma la vera domanda è: quanto siamo lontani dal punto in cui l’intero web editoriale sarà ridotto a un’infrastruttura gratuita per l’intelligenza artificiale? Chi sarà disposto a produrre contenuti in un mondo senza traffico?

Le aziende che offrono formazione sull’IA hanno già più volte conquistato il web pubblico. Tuttavia, la maggior parte del traffico continua a concentrarsi su pagine non informative – come quelle transazionali, locali o dedicate a prodotti e servizi – perché l’azione richiede ancora un click.

Le aree ad alto valore di segnale, come video e notizie, continuano a generare visite.

La creazione di contenuti resta strategica quando: ottiene la raccomandazione degli agenti, converte il traffico residuo con intenzioni più alte e beneficia di una remunerazione in crescita, derivante da licenze e modelli di crawling a pagamento. Il fatalismo è un errore: la strada è la riottimizzazione.

Stiamo assistendo a una sincronizzazione quasi spasmodica tra le versioni rilasciate da OpenAI e le immediate risposte di Google. Quanto sta penalizzando l’ecosistema web questa corsa all’innovazione? Stiamo creando prodotti migliori per l’utente… o un sistema instabile, ingestibile e fuori controllo per chi ci lavora?

Entrambi. Gli utenti guadagnano in velocità e capacità: un agente può analizzare centinaia di pagine in pochi secondi e completare un’attività.

Questo ritmo, però, introduce volatilità per editori e sistemi di misurazione. L’approccio responsabile è distribuire e correggere: citazioni più accurate, riassunti più affidabili, report più chiari e modelli di compenso sostenibili.

Hai scritto che “Microsoft ha fatto ballare Google, ma OpenAI era il DJ”. Chi sta davvero vincendo questa partita? E soprattutto, quali sono i danni collaterali per chi vive di traffico organico e si ritrova schiacciato sotto una guerra tra titani dell’IA?

Gli utenti stanno traendo vantaggio, potendo raccogliere informazioni a una velocità e su una scala senza precedenti. Le piattaforme che adottano modelli agentici e basati sulle risposte stanno preservando la propria quota di mercato.

Il rovescio della medaglia è l’indebolimento della vecchia economia dei referral, soprattutto per i contenuti informativi. Sopravvivere non equivale a un epitaffio: è necessario produrre contenuti degni di essere citati, renderli leggibili dagli agenti, misurare la visibilità nell’era dell’IA e intercettare i click meno numerosi ma più mirati che restano.

Nell’era dell’IA, vince chi sa farsi citare e catturare i click che contano davvero

Il “Great Decoupling” di cui parla Darwin Santos è più di una tendenza statistica: è il segnale che il rapporto tra contenuti, utenti e motori di ricerca sta cambiando in profondità. Google e gli agenti AI non si limitano più a indirizzare verso le fonti, ma spesso consegnano la risposta direttamente, riducendo lo spazio d’azione di chi produce informazione.

La competizione non si gioca più solo sulla posizione in SERP, ma sulla capacità di essere percepiti – e trattati – come fonti imprescindibili dagli algoritmi. Per riuscirci, serve parlare la lingua delle macchine: informazioni canoniche, dati strutturati, contenuti verificabili e endpoint puliti che gli agenti possano leggere e comprendere senza ambiguità. Un marchio invisibile agli agenti è, di fatto, escluso dalle raccomandazioni che contano.

Il traffico organico non scompare, ma diventa più raro e selettivo. Oggi il ROI nasce da meno click, ma con un’intenzione d’acquisto più alta, e dalle conversioni generate dopo che gli utenti hanno scoperto il brand tramite gli agenti.

Per questo, non conta più misurare il CTR di un tempo, ma valutare quanto quei pochi click riescano a tradursi in azioni concrete.

Il messaggio di Santos è chiaro: il web sta cambiando troppo in fretta per restare fermi.

Chi saprà adattarsi, costruendo un brand riconoscibile dagli agenti IA, potrà continuare a crescere. Chi non lo farà, rischia di essere relegato ai margini di un ecosistema in cui la visibilità non basta più.

#avantitutta

Roberto Serra

Mi chiamo Roberto Serra e sono un digital marketer con una forte passione per la SEO: Mi occupo di posizionamento sui motori di ricerca, strategia digitale e creazione di contenuti.

Ricevi i migliori aggiornamenti di settore