Cosa resta di davvero misurabile ai tempi di AI Overview, AI Mode e LLM? Ne abbiamo parlato con l’Owned Media di Semrush
In questa nuova puntata di SEO Confidential abbiamo intervistato Nick Eubanks, una delle figure apicali di Semrush.
Oggi Nick guida l’area Owned Media di Semrush, dove coordina un team internazionale impegnato ad aumentare i ricavi dell’azienda e a supportare una trasformazione strategica decisiva: il passaggio dagli strumenti di analisi SEO tradizionali alle nuove soluzioni dedicate alla visibilità nell’ecosistema dell’IA.
In questa conversazione abbiamo affrontato i nodi più urgenti del momento, tra cui:
quanto ci si può fidare dei tool che misurano la visibilità nelle risposte IA e quali limiti introduce l’AI Mode?
Abbiamo discusso anche di come i modelli generativi stiano cambiando il significato stesso di “posizionamento”, specialmente oggi che trasparenza, tracciabilità e precisione dei report diventano sempre più difficili da garantire.
Come vedrai, abbiamo fatto le domande che molti evitano, messo in discussione alcune certezze e contestato alcune delle convinzioni più radicate nel settore, cercando di farci portavoce anche dei lettori più scettici e dubbiosi riguardo l’utilità dei nuovi strumenti di analisi e monitoraggio.
Nick non ha schivato nulla: ha risposto punto per punto, con grande chiarezza e rigore.
Ma bando alle ciance, goditi l’intervista.

“Il fatto che i modelli siano opachi non significa che non siano misurabili”, ha dichiarato Nick Eubanks di Semrush
Eccoci Nick, prima di tutto vorrei chiederti: con la crescita di AI Overview, AI Mode e dei motori di risposta basati sull’intelligenza artificiale, quale sarà il ruolo futuro degli strumenti SEO?
Continueranno a essere fondamentali per l’analisi e il monitoraggio delle prestazioni o rischiano di perdere rilevanza in un ecosistema in cui le metriche tradizionali stanno diventando meno visibili e misurabili?
Gli strumenti SEO continueranno a essere importanti, ma cambieranno funzione: dall’analisi di posizionamenti e traffico passeranno alla misurazione della visibilità nei sistemi di intelligenza artificiale, dell’impatto narrativo e dell’attribuzione su superfici sempre più ibride.
Le metriche tradizionali come ranking e traffico organico restano utili, anche se non bastano più. La scoperta passa sempre più attraverso interfacce guidate dall’IA, come AI Overview e modelli conversazionali, che filtrano contenuti e influenzano scelte senza generare per forza un click.
Gli strumenti dovranno quindi introdurre nuove capacità: mostrare come i contenuti vengono presentati nei pannelli di risposta generati dall’IA, misurare la presenza del marchio nelle narrazioni prodotte dai modelli e collegare l’esposizione nelle superfici IA ai comportamenti successivi, come ricerche di brand, visite dirette e conversioni. L’obiettivo è attribuire l’influenza anche quando l’interazione avviene fuori dai percorsi tradizionali.
Se i tool SEO continueranno a concentrarsi solo su ranking, backlink e report classici, rischiano di perdere pertinenza, perché non intercettano la dinamica centrale: come l’IA seleziona i contenuti, quali fonti cita e come questa esposizione modifica la percezione del marchio.
In breve: le piattaforme SEO non sono obsolete, si stanno trasformando. Diventano piattaforme per la “Generative Engine Optimization (GEO)” tanto quanto la SEO classica.
Molti strumenti promettono di misurare la visibilità nelle risposte dell’IA, ma ci sono enormi dubbi sulla personalizzazione, sul contesto e sui limiti tecnici dei modelli.
Se questi fattori non vengono presi in considerazione, che tipo di realtà rappresentano realmente quei numeri? Cosa si può dire agli scettici che non credono nell’utilità di questi sistemi?
Quando personalizzazione e contesto vengono trascurati, le metriche diventano solo campioni parziali: mostrano ciò che un profilo simile a un certo utente potrebbe visualizzare in una situazione controllata, senza restituire l’intera realtà del pubblico.
Se non si considerano variabili come posizione, cronologia, dispositivo o versione del modello, i dati rischiano di trasformarsi in rumore. Offrono una visibilità apparente che non sempre coincide con un’influenza effettiva su tutti i segmenti.
Per chi solleva dubbi è utile chiarire fin dall’inizio che non si punta a una misurazione assoluta ma a un’indicazione di tendenza e quota relativa. Il valore nasce dal confronto: prima e dopo una campagna, rispetto ai concorrenti con lo stesso set di prompt, o tra modelli diversi.
L’idea si avvicina agli indici di ascolto televisivi o ai panel dei sondaggi: non descrivono l’intera popolazione, eppure forniscono indicazioni affidabili. Allo stesso modo, i pannelli di visibilità dell’IA offrono un riferimento plausibile all’interno di un ambiente dove non esistono dati completi.
Ignorare queste misurazioni significa rinunciare a capire cosa accade nel “funnel oscuro” della scoperta mediata dall’IA. Anche se imperfetti, quei numeri restano utili per orientare analisi e decisioni, purché se ne conoscano i limiti.
Come potete dimostrare il ROI della SEO ai clienti, soprattutto quando Google non lo rende disponibile? Strumenti come Semrush possono davvero colmare questa lacuna o rimangono solo un indicatore indiretto?
Il ROI non può più essere presentato come un rapporto diretto tra una singola parola chiave e un risultato economico preciso. Nelle superfici mediate dall’IA il riferimento diventa l’effetto complessivo, la modellizzazione dell’attribuzione e la capacità di capire come si propaga l’influenza.
Si possono utilizzare alcune tattiche per rendere la misurazione più solida:
- Gruppi di controllo sintetici: confrontare pagine o mercati ottimizzati con pagine simili non ottimizzate, osservando nel tempo le variazioni di visite organiche, traffico di brand e accessi diretti.
- Collegare la visibilità nelle risposte IA ai risultati aziendali: quando il marchio compare in risposte o citazioni generate dall’IA, spesso aumentano le ricerche di brand e il traffico diretto. Gli strumenti mostrano i cambiamenti di visibilità, le analisi mostrano gli effetti finali.
- Usare piattaforme come Semrush per integrare le metriche mancanti: offrono dati su quota di voce, menzioni, citazioni, difficoltà tematiche e segnali utili per stimare il valore. Sono indicatori indiretti, ma rappresentano gli input più affidabili in un contesto dove i motori non forniscono informazioni complete.
- Connettere la visibilità ai risultati di conversione: maggiore esposizione, tra organico e superfici IA, tende a correlare con tassi di conversione più alti, costi di acquisizione più contenuti e maggior valore nel lungo periodo.
In sintesi, strumenti come Semrush non offrono un calcolo perfetto del ROI, ma forniscono segnali indispensabili. Integrati con modellazione, analisi e ipotesi ragionate, permettono di costruire valutazioni credibili e comprensibili per i clienti.
Con l’aumento della personalizzazione in AI Mode attraverso l’integrazione dei profili utente e del contesto, come pensate di rappresentare in modo realistico i dati di visibilità e prestazioni, considerando che ogni utente può vedere un output diverso?
È utile riconoscere che ogni utente può ricevere un output diverso, anche se i sistemi generativi condividono una “spina dorsale” comune di recupero e classificazione. Su questa base è possibile costruire modelli affidabili.
La visibilità può essere descritta su più livelli:
- Linea di base globale: utilizzare un set di prompt con un profilo neutro, senza cronologia né caratteristiche specifiche, per identificare la presenza minima del marchio.
- Segmenti basati su diverse tipologie di persone: definire profili rappresentativi come acquirente aziendale, consumatore o professionista sanitario; associare ogni prompt al relativo contesto e verificare come cambia la visibilità.
- Monitoraggio costante delle tendenze: mantenere invariati prompt e condizioni di test, così da osservare variazioni nel tempo. Anche se gli utenti reali vedono risultati diversi, è possibile misurare incrementi o cali percentuali in un ambiente controllato.
Quando si presenta il dato agli stakeholder, è utile chiarire che non si tratta di una fotografia dell’intera popolazione, ma di una lettura strutturata delle prestazioni del marchio in vari contesti e in confronto ai concorrenti.
La segmentazione serve anche a mettere in luce differenze rilevanti: se un profilo mostra il marchio con una frequenza doppia rispetto a un altro, l’informazione ha un valore strategico.
La personalizzazione totale implica che non sarà possibile coprire ogni esperienza individuale, ma è comunque fattibile costruire una mappa delle tendenze a livello generale che supporta le decisioni e rende più prevedibile il comportamento dei sistemi generativi.
Il query fan-out di AI Mode frammenta una singola domanda in più sottoquery e fonti: i tool sono già in grado di mappare e misurare la copertura di questi sottoargomenti per valutare la reale autorevolezza di un sito?
In linea di principio e sempre più spesso nella pratica, tool come Semrush sono in grado di mappare il grafico fan-out: query seed → sottoquery → entità/facets correlate.
Ci sono alcuni punti chiave da analizzare:
- Per ogni intento iniziale occorre individuare le sotto-domande che possono essere generate, utilizzando analisi del topic, studio dei concorrenti e prompt IA.
- È necessario verificare se i contenuti coprono queste sottoquery e se il sito compare nelle superfici IA tramite citazioni e menzioni.
- Conviene controllare anche la visibilità nelle SERP tradizionali per gli stessi nodi tematici.
La misurazione dell’autorità tematica si trasforma così in una valutazione della copertura: in quante sottoquery rilevanti il sito è presente, quanto spesso viene citato e quanti elementi della mappa tematica risultano presidiati.
Questo porta i tool ad andare oltre il semplice conteggio delle parole chiave o il ranking, verso modelli basati sulla copertura dell’intento, la visibilità nelle risposte IA e la valutazione dell’entità come riferimento autorevole.
Oltre a tracciare le inclusioni, avete intenzione di integrare nei vostri strumenti metriche comparative che distinguano chiaramente le prestazioni delle query con AI Overview, senza AI Overview e con AI Overview ma senza citazioni?
Sì, e questo rappresenta un elemento di differenziazione decisivo. La segmentazione dovrebbe seguire tre gruppi distinti:
- Query in cui non viene attivata alcuna AI Overview.
- Query in cui compare AI Overview e il marchio è citato.
- Query in cui compare AI Overview e il marchio non è citato.
Questa suddivisione permette di analizzare tre scenari:
- Nelle query senza AI Overview si può osservare il rendimento in termini di traffico e posizionamenti.
- Nelle query con AI Overview in cui il marchio viene citato si può valutare l’impatto dell’esposizione sulla visibilità e sul traffico.
- Nelle query con AI Overview attiva ma senza citazioni si identifica il divario, e quindi un’opportunità di intervento.
Il confronto tra questi segmenti aiuta a individuare aree strategiche, come le query ad alto volume con AI Overview attiva da cui il marchio è assente. Questo permette di stabilire priorità chiare nell’ottimizzazione dei contenuti e delle entità.
Gli strumenti dovrebbero evidenziare in modo immediato sia le opportunità – volume elevato, presenza di AI Overview e assenza del marchio – sia i rischi, come il caso in cui il sito è primo nei risultati organici ma viene escluso da AI Overview.
Quindi sì, l’integrazione di questo tipo di segmentazione comparativa è assolutamente prevista nella roadmap dei tool SEO di nuova generazione.
Nick, non è un po’ paradossale voler “misurare” un contesto, quello degli LLM, che è per sua natura opaco, dinamico e in continua evoluzione? Quanto possono fidarsi i marchi di questi dati?
Sì, è paradossale perché il funzionamento interno dei modelli generativi è proprietario e in continua evoluzione. Ma misuriamo già sistemi altrettanto opachi (algoritmo di ricerca di Google, algoritmi social, aste pubblicitarie programmatiche).
L’affidabilità nasce da alcuni elementi chiave:
- Metodologia coerente: utilizzare set di prompt stabili, persone e contesti definiti, ripetuti nel tempo.
- Lettura delle tendenze invece di focalizzarsi su singole misurazioni. I valori assoluti possono variare, ma la direzione del cambiamento è un indicatore solido.
- Verifica incrociata per cercare correlazioni tra le metriche di visibilità dell’IA e i risultati di business (crescita della ricerca del marchio, aumento del traffico diretto, conversioni).
- Chiarezza sui limiti: comunicare che i dati rappresentano stime basate su campioni e non una fotografia completa di ogni possibile percorso utente.
I marchi possono considerare questi dati affidabili se vengono interpretati come strumenti decisionali, non come verità assolute. Il loro valore sta nel rispondere a domande come:
- “La nostra visibilità IA cresce più o meno rispetto ai concorrenti?”
- “Stiamo colmando le lacune nella nostra copertura degli argomenti in cui l’IA domina?”
Quindi il paradosso è reale, ma ciò non significa che non si possa agire. Basta farlo con il giusto approccio e la giusta disciplina.
Avete incluso su Semrush il monitoraggio su Google AI Mode. Lasciami fare l’avvocato del diavolo. Come rispondete a chi dice che è difficile prendere sul serio uno strumento che misura la visibilità nelle risposte dell’IA, dato che nessuno può sapere come funzionano realmente quei modelli o come scelgono le loro fonti?
È vero, non abbiamo pieno accesso alla funzione decisionale del modello, ma possiamo osservarne i risultati in modo sistematico.
Ci concentriamo sui segnali visibili: quali fonti vengono citate, con quale frequenza vengono menzionati i marchi, quali prompt portano i nostri contenuti in superficie.
Eseguiamo set di prompt controllati e condizioni fisse (dispositivo, posizione, versione del modello, ove possibile) in modo da poter confrontare cose simili tra loro.
Il fatto che i modelli siano opachi non significa che non siano misurabili.
Misuriamo i risultati, non il funzionamento interno dei modelli, proprio come abbiamo fatto per anni con Google Search.
La misurazione riguarda la visibilità e l’influenza, non garantisce l’inclusione. Lo strumento aiuta a comprendere opportunità, lacune e tendenze.
Quindi sì, è lecito mettere in discussione i meccanismi, ma una misurazione valida è comunque assolutamente possibile e attuabile se inquadrata correttamente.
Avete lanciato il primo rapporto per ChatGPT Shopping, ma questa funzione è ancora agli inizi e non è ampiamente utilizzata dai consumatori. State offrendo ai marchi un vantaggio reale o rischiate di alimentare un hype che potrebbe svanire rapidamente?
La risposta realistica: si tratta di un vantaggio strategico iniziale piuttosto che di un canale già capace di generare volumi certi e prevedibili.
Ci sono delle prove a favore che sostengono questa lettura:
- OpenAI sta chiaramente integrando funzionalità commerciali in ChatGPT e protocolli di commercio agentico, collaborando con i principali rivenditori.
- Esistono già comportamenti dei consumatori che dimostrano l’utilizzo di assistenti IA per consigli sui prodotti e processi decisionali = una fase pre-acquisto.
Esistono però anche dei rischi:
- L’adozione è ancora in fase embrionale; le metriche/i benchmark non sono maturi come le piattaforme di ricerca o di e-commerce classiche.
- Se i marchi investono massicciamente basandosi solo sull’hype (ignorando i fondamentali), potrebbero ottenere un ritorno limitato.
Per cui il nostro obiettivo è sviluppare strumenti e competenze per arrivare preparati quando questo canale crescerà.
Non stiamo fingendo che questo sia oggi il tuo prossimo canale di traffico al 50%, ma ti stiamo offrendo visibilità su un canale che potrebbe diventare importante e le conoscenze acquisite saranno applicabili a tutte le superfici di commercio IA.
Pertanto, non si tratta solo di hype, ma di una fase iniziale. Il vantaggio sta nel benchmarking precoce, nei cicli di apprendimento e nell’essere pronti quando arriverà la scalabilità.
Gli LLM tendono a preferire i siti dei marchi rispetto agli aggregatori. Non c’è il rischio di riprogettare un web che favorisce solo i grandi marchi, cancellando il ruolo degli intermediari che hanno sempre generato valore?
I dati suggeriscono che i sistemi generativi mostrano una predilezione per fonti autorevoli, ricche di entità e validate da esperti/terze parti. Ad esempio, lo studio “Generative Engine Optimization: How to Dominate AI Search” ha scoperto che la ricerca IA favorisce i media qualificati e i contenuti autorevoli di terze parti rispetto ai contenuti aggregati di scarsa qualità.
Ciò non significa automaticamente che solo i grandi marchi avranno la meglio, ma alza l’asticella per gli editori/intermediari più piccoli: è necessario passare da “aggregatori di volume” a “creatori di valore”.
Gli intermediari possono restare competitivi se:
- offrono dati originali, analisi proprietarie, test indipendenti o competenze costruite intorno alla propria comunità;
- adottano un uso rigoroso delle entità, dei dati strutturati, dei segnali di paternità e dei riferimenti che aiutano gli LLM a riconoscerne l’autorevolezza;
- presidiano aree di specializzazione verticale dove i grandi marchi non hanno profondità o credibilità.
Sì, c’è il rischio di un consolidamento del mercato, come dici, ma possono emergere anche nuove possibilità.
I sistemi generativi premiano la differenziazione, la tracciabilità della competenza e la chiarezza.
Gli intermediari che continueranno a essere rilevanti saranno quelli capaci di offrire contributi esperti e ben caratterizzati, non copie o rielaborazioni dei contenuti dei produttori.
Il messaggio per chi lavora nell’editoria e nel content marketing è semplice: non si viene esclusi, si entra in una nuova fase. L’ambiente premia chi sa diventare un intermediario autorevole, non chi si limita a fare volume.
La misurazione dell’era IA: tra metriche in crisi e nuovi strumenti ancora da decifrare
La SEO vive un passaggio di fase che nessun professionista può permettersi di ignorare.
I modelli generativi stanno ridefinendo cosa significa “essere visibili”, mentre gli strumenti di analisi provano a misurare superfici sempre più opache, in cui trasparenza e causalità sono sempre meno garantite.
È un terreno nuovo, pieno di entusiasmi e sospetti: c’è chi teme che i dati non siano affidabili, chi vede nell’AI Mode un terremoto per le metriche storiche e chi si chiede se gli LLM stiano riscrivendo le gerarchie del web a favore dei grandi brand.
Nel corso di questa intervista abbiamo cercato di rappresentare anche i tuoi dubbi e le tue perplessità sui tool che misurano qualcosa di apparentemente inafferrabile come la visibilità IA.
Dobbiamo riconoscerlo: Nick non ha aggirato le domande e ci ha risposto schiettamente.
Ha riconosciuto limiti e potenzialità di Semrush, spiegato opportunità e indicato la direzione con la lucidità di chi vive questa transizione dall’interno.
È vero, questi strumenti non sono perfetti e non offrono precisione assoluta, ma possono fornire stime, proiezioni e segnali utili.
Ma, a parer mio, il punto è un altro: fanno quello che possono nonostante il vuoto lasciato da Google.
La Search Console dovrebbe finalmente fornire dati più precisi, più completi e meno filtrati, invece di costringerci a lavorare con informazioni parziali e spesso ambigue.
Finché questo non accade, i tool restano risorse operative utili (pur con i loro limiti), perché almeno provano a colmare un gap che non dovrebbe esistere.
Un grazie a Nick per la chiarezza e la disponibilità.
Per oggi è tutto, ci rivediamo la prossima settimana con una nuova puntata di SEO Confidential.
Il nostro viaggio nel “backstage” della ricerca continua!
