L’assenza di referrer rompe il contratto sociale del web: secondo Stox, IA come ChatGPT e Gemini pretendono tutto e restituiscono poco o nulla
Benvenuto all’ottavo appuntamento con SEO Confidential, la nostra rubrica di approfondimento con le figure chiave della SEO internazionale. In un momento in cui l’intelligenza artificiale sta ridisegnando le fondamenta della ricerca, la trasparenza dei dati è diventata il campo di battaglia decisivo.
Per analizzare questo scenario, abbiamo intervistato una delle voci più autorevoli e tecnicamente preparate del settore: Patrick Stox, Product Advisor e Brand Ambassador di Ahrefs.
Con un passato da sviluppatore e un’esperienza consolidata in colossi come IBM, Stox unisce una rara profondità tecnica a una visione strategica del mercato.
Nella nostra conversazione abbiamo affrontato senza filtri il tema più dibattuto del momento: la difficoltà di tracciare il traffico proveniente da IA e LLM.
Sì, perché che siano AI Overviews o ChatGPT il discorso non cambia: la trasparenza dei dati rimane un miraggio.
Un’opacità che, secondo Stox, nasconde dati “non buoni” e rompe il patto di fiducia con i creatori di contenuti.
Ecco cosa ci ha detto Patrick, buona lettura.
“Google non è trasparente con i dati. Credo che sappiano che la situazione non è delle migliori”, Patrick Stox
Patrick, Google conferma che il traffico da AI Overviews non verrà separato nella Search Console. Ormai è evidente che non vogliono farcelo misurare, non credi?
Il tracciamento è mescolato con i normali dati di ricerca e non verrà separato nella Google Search Console, quindi sì, non vogliono che possiamo misurarlo facilmente.
In pratica, quando un utente cliccherà su un link che porta al tuo sito, che questo provenga dalla nuova risposta generata dall’IA (come AI Overviews) o da un risultato di ricerca “classico”, Google Search Console lo registrerà come un unico tipo di click. Non ci sarà modo di distinguere l’origine. Unendo i dati, Google rende di fatto impossibile per noi analizzare in modo specifico le performance dei nostri contenuti all’interno delle risposte dell’intelligenza artificiale.
I nostri lettori sono imprenditori che investono per farsi trovare online. Se i click dalla modalità AI non sono tracciabili, come possono capire se i loro investimenti in SEO e contenuti stanno funzionando? Non stiamo rischiando di prendere decisioni sbagliate al buio?
I dati a nostra disposizione stanno diventando più confusi e meno chiari. Questo significa che per un imprenditore diventa più difficile capire con precisione quali strategie stanno funzionando.
Se investi per creare un contenuto di alta qualità, non potrai sapere con certezza se i click ricevuti derivano dal suo buon posizionamento tradizionale o dal fatto che l’IA lo ha utilizzato come fonte.
In questo modo si perde la capacità di misurare in modo granulare il ritorno sull’investimento (ROI) delle attività SEO e di content marketing…
Esatto. Questa mancanza di trasparenza non è una buona notizia per chi possiede un sito web e investe per la propria visibilità.
La domanda che sorge spontanea è proprio questa: perché Google ha scelto di non fornire i dati in modo separato?
Si comportano in modo “losco” con i dati. Proprio perché sanno quanto non siano buoni.
Google dice che le AI Overviews portano più traffico, ma non possiamo verificarlo. Come si fa SEO così, se i dati restano nascosti?
Dobbiamo semplicemente continuare a fare ciò che funziona: una SEO di qualità. Anche se non potremo misurare i risultati di AI Overviews in modo perfetto, questo non è un problema del tutto nuovo. Molti altri canali di marketing hanno un certo grado di “opacità” nei dati, ma questo non ci ha mai impedito di usarli con successo quando la strategia di base è solida.
A proposito di questo, mi sembra chiaro che Google voglia trattenere gli utenti nel suo ecosistema con le risposte IA. Chi non vuole dipendere solo da Google Ads, che alternative ha? C’è ancora spazio per strategie efficaci per generare traffico e vendite fuori da queste logiche?
In questo momento, la mia strategia si concentra su due fronti. Da un lato, sto ottimizzando i contenuti per farli apparire il più possibile nelle risposte LLM e in quelle generate dall’IA di Google (come AI Mode).
Dall’altro, sto lavorando per diversificare le fonti di traffico, in modo da non dipendere esclusivamente dalla ricerca tradizionale. Un esempio concreto è YouTube, che per molte aziende resta un canale eccezionale per trovare nuovi clienti.
Perché nel 2025 ci sono ancora assistenti AI che non passano i referrer? È una svista tecnica o una scelta per nascondere i dati? Se Claude e Perplexity li mandano, perché ChatGPT e Gemini no?
Nel mio articolo ho analizzato proprio questo aspetto. Il problema principale è che, a mio avviso, poche persone controllano attivamente se il referrer viene inviato correttamente. Se nessuno si lamenta o misura l’impatto, per gli sviluppatori di questi sistemi diventa un problema di secondaria importanza da risolvere.
Questo crea una situazione paradossale. Da un lato, ci sono probabilmente veri e propri bug o implementazioni affrettate che causano la perdita dei dati. Dall’altro, questa mancanza di trasparenza rompe quello che io chiamo il “contratto sociale” del web: noi creatori di contenuti permettiamo ai bot di analizzare i nostri siti, e in cambio ci aspettiamo di ricevere traffico tracciabile. Se questo non avviene, il patto viene meno.
La cosa ancora più strana è che sarebbe nel loro stesso interesse farsi tracciare correttamente. Se un assistente IA appare nei report di marketing come una fonte di traffico di valore, le aziende inizieranno a considerarlo un canale strategico su cui investire.
La buona notizia è che la situazione sta migliorando, forse proprio perché se ne inizia a parlare. ChatGPT, per esempio, ha recentemente risolto molti dei suoi problemi di attribuzione poco dopo la pubblicazione del mio articolo. Mi chiedo se lo abbiano letto…
Sempre più siti bloccano i bot AI. Dopo anni a regalare contenuti, ora dovremmo essere contenti che li usino per addestrare modelli… senza restituire traffico? Non è il momento di pretendere un giusto valore?
Quella che descrivi non è un’ipotesi futura, ma una realtà che sta già prendendo forma. Il caso più emblematico è quello di Reddit. Essendo un archivio immenso di conversazioni umane, i suoi contenuti sono di un valore inestimabile per addestrare i modelli di intelligenza artificiale.
Proprio per questo, Reddit ha già stretto accordi milionari per concedere l’accesso ai suoi dati. Quindi sì, il mercato si sta già muovendo verso la monetizzazione dei contenuti, e i grandi editori e le piattaforme più importanti stanno aprendo la strada.
Le keyword generiche sono ormai riservate ai grandi? Ha ancora senso investirci se l’utente cerca direttamente il brand?
La qualità del contenuto è ancora l’arma più potente. Se riuscite a creare una risorsa davvero superiore a quella dei concorrenti, che risponde in modo eccellente alle domande degli utenti, avete ancora la possibilità di competere anche sulle parole chiave più generiche.
Detto questo, non possiamo negare la realtà: la sfida è decisamente più ardua per i siti più recenti. I grandi brand partono con un vantaggio enorme in termini di autorevolezza e fiducia, fattori che Google premia. Quindi sì, è possibile, ma richiede un investimento in qualità eccezionale e più tempo per vedere i risultati.
Investire in pubblicità e backlink aiuta davvero a comparire negli AI Overviews? O stiamo solo cercando visibilità in un sistema che premia chi è più noto, non chi è più competente?
Google utilizza ancora i segnali di ricerca per AI Overview e AI Mode. I link, in particolare, continuano a essere un segnale chiave di fiducia e autorevolezza. Google usa questi segnali per capire quali fonti sono le più competenti e affidabili. Quindi, un buon profilo di link aiuta, eccome.
Se nessuno ha più interesse a creare contenuti originali, da dove prenderà l’AI le informazioni aggiornate? E come faranno i brand a farsi conoscere?
Non credo che le persone smetteranno di creare contenuti, ma forse ne verranno creati di meno. Ora bisogna stabilire se c’è un valore e se lo si vuole distribuire pubblicamente o privatamente.
Penso che le aziende dovranno concentrarsi su più canali se vogliono crescere. YouTube, social media, ecc.
Nell’era degli AIOs e di AI Mode, che fine fanno i tool SEO? Hanno ancora un ruolo utile nel monitorare i risultati o sono ormai in crisi?
Sono convinto che alla fine i tool si adatteranno. Rispondere alle esigenze di chi fa marketing è la loro ragione di esistere, quindi è solo questione di tempo prima che offrano soluzioni per misurare questo nuovo scenario.
La nuova metrica che non puoi più ignorare: farti citare dagli LLM
Se da questa conversazione con Patrick Stox emerge un’unica, brutale verità, è questa: il “contratto sociale” del web, come lo chiama lui, è stato stracciato. E non per sbaglio.
La sua analisi non lascia spazio a dubbi: quando definisce “losco” l’atteggiamento di Google sui dati, non descrive un imprevisto, ma una precisa strategia. E con ChatGPT la situazione non cambia come hai visto….
Il tuo sito non è più un partner, ma una cava di dati per un’IA che non restituisce il favore. L’era del traffico tracciabile, mi spiace ma sembra un antico ricordo.
Oggi, se vuoi rimanere visibile, il tuo sito deve parlare una lingua nuova: quella degli LLM.
Ma non solo, occorre anche diversificare su canali come YouTube, per esempio, e continuare a investire in link.
Fare SEO oggi significa costruire un’arca mentre gli altri aspettano che smetta di piovere. La linea di demarcazione, oggi, è questa:
da una parte, chi continuerà a ottimizzare per una scatola nera, sperando in un report da Google che non arriverà mai.
Dall’altra, chi costruisce un brand così autorevole e multi-canale da diventare la fonte che l’IA stessa sarà costretta a citare.
La vera SEO, oggi, non è più persuadere gli algoritmi di Google. È costruire un brand così autorevole da essere citato, menzionato e riconosciuto come fonte primaria dalle intelligenze artificiali.
Beh, siamo giunti alla fine del nostro articolo, a me non resta che ringraziare Patrick Stox per la piacevole chiacchierata e te per l’attenzione. Ci vediamo la prossima settimana, per una nuova puntata di SEO Confidential, non ti spoilero l’ospite, ma tieniti pronto a grandi nomi!
#avantitutta
L’IA che pretende senza restituire… un classico copione di ingratitudine visto e stravisto!
Ma che bravo Patrick, che smaschera ‘sto giochetto dei bot che rubano traffico. Io dico solo: occhio a chi promette mari e monti digitali!
Un punto di vista netto. 🧐 L’IA impara, ma il web ha bisogno di attribution. ✍️
Capisco, Patrick Stox centra il punto. L’IA che non restituisce i referrer è un bel casino per chi fa content. Bisogna che si diano una regolata, ‘sto gioco a senso unico non mi garba.
Il web è un mercato: se le IA fanno acquisti, devono indicare la provenienza.