Mentre gli agenti IA iniziano a prendere decisioni autonome e a interagire con i contenuti, la costruzione della visibilità online passa sempre più da fiducia, accessibilità e rilevanza semantica
La ricerca sta cambiando più rapidamente dei comportamenti degli utenti, la SEO non è più soltanto ottimizzazione: è interpretazione del futuro.
Gli agenti di IA iniziano a prendere decisioni autonome, gli standard di accessibilità tornano centrali e il branding rischia di essere giudicato da sistemi che non guardano le pagine, le analizzano.
Il dibattito su cosa fare, su come adattarsi e su quale futuro attenda la ricerca è aperto più che mai, alimentato da incertezze, impressioni contrastanti e scelte strategiche che nessuno può più rimandare.
È esattamente per questo che è nato SEO Confidential: offrire un confronto diretto con chi sta ridefinendo il settore e portare ai lettori prospettive utili, lucide e subito applicabili.
Per questo nuovo episodio ho invitato Jes Scholz, marketing consultant internazionale, speaker di riferimento nel panorama Search e consulente strategica per aziende enterprise.
Con lei affrontiamo alcune delle domande più urgenti che oggi ogni imprenditore dovrebbe porsi: cosa succede al funnel quando il “cliente” è un agente IA?
Perché l’usabilità diventa un fattore di sopravvivenza?
Che cosa resta della SEO quando non esiste più una SERP visibile?
E soprattutto, come si costruisce l’autorevolezza del brand, se la citazione vale più del click?
Un confronto che non si limita a descrivere ciò che sta accadendo nella ricerca, ma chiarisce quali aspetti contano davvero per restare rilevanti mentre l’IA riscrive le dinamiche del mercato.
Un’occasione preziosa per capire dove sta andando il settore, come cambiano le scelte dei nuovi “clienti artificiali” e quali strategie possono fare la differenza nei prossimi anni.
È davvero un’intervista da non perdere, per cui ti auguro buona lettura!

Ecco perché il tuo brand deve conquistare gli agenti IA: la nuova frontiera della fiducia
Se gli agenti IA iniziano a prendere decisioni, acquistare e prenotare per conto degli utenti, che fine fa il funnel di conversione? In che modo un brand può consolidare fiducia e riconoscibilità quando l’interlocutore operativo non è più una persona, ma un modello algoritmico?
Anche quando il cliente è un’IA, il processo decisionale segue schemi vicini a quelli umani. I sistemi IA tendono infatti a riflettere i comportamenti delle persone e a riprodurne le logiche di scelta.
La capacità di un marchio di farsi riconoscere nasce prima della fase di ricerca, perché la quota di voce (share of voice) si forma in anticipo e orienta sia l’utente sia il modello. Un brand già presente nella mente dell’individuo o nella “memoria” dell’IA ha più probabilità di essere interpretato correttamente, collegato all’intento di ricerca e mostrato in posizione rilevante. Questa visibilità anticipata aumenta anche le chance di emergere nelle API dei motori di ricerca, e di essere quindi selezionato come destinazione preferita dagli agenti IA.
Indipendentemente dal pubblico, umano o macchina, la chiave è costruire fiducia e riconoscimento coinvolgendo in modo significativo il pubblico quando è fuori dal mercato, in modo che il vostro marchio sia rilevante quando entra nel mercato.
Dal tuo articolo su Search Engine Land emerge che il 63% dei siti viene abbandonato dagli agenti per problemi tecnici o di usabilità. Non è che questi agenti stanno solo reagendo a problemi che gli utenti umani sopportano da anni? Mi riferisco alle pagine lente, ai reindirizzamenti sbagliati o ad altre esperienze frustranti… Davvero la colpa è delle IA o il problema sono i siti progettati male?
Nella maggior parte dei casi, è l’usabilità dei siti web a non superare il test. Molti dei problemi che scoraggiano gli agenti scoraggerebbero anche gli esseri umani. Ritengo che gli agenti siano la cosa migliore che sia capitata all’UX da molto tempo.
Gli esseri umani considerano l’investimento di tempo necessario per ulteriori ricerche. Accettano il “sufficientemente buono” come compromesso per il tempo. Gli agenti no. Abbandoneranno rapidamente un sito e cercheranno un’altra opzione se l’usabilità del sito web è scarsa.
Hai osservato che gli agenti scelgono quasi sempre il primo risultato, confermando che “essere primi” conta più che mai. Ma se le scelte avvengono tramite API, senza pubblicità né risultati visivi, che ruolo concreto resta alla SEO? Come si può ancora influenzare la visibilità in un sistema dove non esiste più una vera SERP?
Piuttosto che una SERP, si tratta di una SERAPI: un metodo di consumo diverso, ma con principi simili. La SEO svolge ancora un ruolo importante perché, indipendentemente dal fatto che si tratti della pagina dei risultati di ricerca visiva o di un elenco di risultati API, rimane un algoritmo che restituisce un elenco ordinato. È sempre compito dei SEO influenzare quale risultato viene visualizzato per primo.
Gli agenti leggono le pagine in modalità testuale, ignorando immagini, pop-up e grafica. Questo non ribalta completamente le regole del web design? In un mondo di utenti artificiali, stiamo tornando a scrivere per il codice più che per le persone?
Io lo vedrei come un ritorno alla scrittura di codice più pulito, che in definitiva è meglio per le persone. Dopo tutto, a quale utente umano piacciono i pop-up invadenti? Chi vuole che la pagina si carichi più lentamente per consentire animazioni inutili? O peggio ancora, avere 3 diversi script di tracciamento? Spesso gli sviluppatori hanno seguito framework popolari, ma gonfiati, per i propri interessi, non per il bene degli utenti.
Ma c’è di più. La navigazione basata sul testo incoraggia le migliori pratiche come l’HTML semantico e gli standard di accessibilità come WCAG (Web Content Accessibility Guidelines) e ADA (Americans with Disabilities Act). Negli ultimi anni questi standard non hanno avuto un forte “business case” per investire nella qualità del codice, ma gli agenti ne forniscono uno.
(NdR: Le WCAG (Web Content Accessibility Guidelines) sono linee guida internazionali che indicano come rendere siti e contenuti digitali accessibili a persone con disabilità, definendo criteri tecnici e buone pratiche.
L’ADA (Americans with Disabilities Act) è la legge statunitense che tutela i diritti delle persone con disabilità e richiede che anche i servizi digitali garantiscano un adeguato livello di accessibilità).
Dici che “l’IA è il nuovo cliente”. Ma se gli agenti prendono decisioni basandosi su dati strutturati e segnali tecnici, non rischiamo che la creatività e il branding perdano peso rispetto alla pura ottimizzazione tecnica?
Gli algoritmi prendono decisioni influenzate da dati strutturati e segnali tecnici da decenni. Gli agenti portano questo concetto a un nuovo livello di complessità. Ma non vedo questo come una minaccia alla creatività o al branding.
Gli agenti seguono schemi di scelta sorprendentemente simili a quelli umani: non analizzano ogni alternativa presente sul mercato, selezionano un insieme limitato di opzioni e, proprio come gli esseri umani, spesso si accontentano. L’esito dipende dalla disponibilità digitale del marchio e dalla sua capacità di risultare rilevante.
La componente tecnica della SEO contribuisce a rendere il brand accessibile e correttamente interpretato, ma la selezione vera nasce da segnali che indicano preferenza e affidabilità. Segnali come click, conversioni, bassi tassi di ritorno (tramite Google Shopping), recensioni positive, chiacchiere sui social, copertura autorevole da fonti esterne. La SEO tecnica aiuta a guadagnare il posizionamento, ma è il branding che guadagna il coinvolgimento e, in ultima analisi, il profitto a lungo termine.
Con i limiti di tracciamento e l’opacità dei dati provenienti dagli agenti, l’analisi del traffico diventa quasi impossibile. Come può un’azienda misurare davvero il successo delle proprie strategie se le metriche classiche – sessioni, tempo sul sito, bounce rate – non significano più nulla?
La share of voice (SOV) è un eccellente KPI per la SEO. Tiene conto dell’importanza di raggiungere in modo coerente sia il pubblico all’interno del mercato che quello al di fuori di esso. Inoltre, se ben definita, è un indicatore anticipatore dei movimenti della quota di mercato, legato ai ricavi dell’azienda, che è ciò che interessa a un CMO (Chief Marketing Officer, la figura che guida la strategia di marketing di un’azienda NdR).
Il problema della SOV, per la ricerca IA, è che non ci sono dati condivisi sui prompt delle piattaforme. È necessario fare ipotesi plausibili sulle intenzioni degli utenti e si avrà un campione limitato alla dimensione dei prompt che si tracciano. Ma questo è l’equivalente di un focus group. Finché si garantisce una selezione imparziale e si traccia in modo coerente nel tempo, le tendenze dei dati hanno un grande valore.
Aprire i siti ai crawler dell’IA è sempre un vantaggio? Molti editori temono che consentire il crawling ai bot di ChatGPT, Perplexity o Gemini significhi perdere controllo sui propri contenuti e regalare valore a piattaforme che non portano traffico diretto. Fino a che punto questo scambio è equo? E cosa distingue una strategia intelligente di apertura da una semplice cessione gratuita di valore ai modelli di IA?
Non illudiamoci, abbiamo perso il controllo sui contenuti a favore delle piattaforme già da decenni. Sì, l’intelligenza artificiale porta questo aspetto a un livello completamente nuovo di distribuzione, poiché non si tratta solo di un teaser, ma spesso di una divulgazione dell’idea nella sua interezza.
Tuttavia, questo è stato per anni un modello funzionante con la syndication dei contenuti. Allo stesso modo, la maggior parte dei grandi marchi ha investito nella creazione di comunità su TikTok e YouTube, dove i contenuti vengono consumati su quelle piattaforme. Nessuna delle due genera quantità significative di traffico diretto. Ma comprendiamo che essere presenti è importante per il marchio. Le superfici dell’IA sono le stesse.
Detto questo, se hai contenuti davvero unici. Ad esempio, una grande quantità di recensioni dei clienti. Non consiglierei di lasciare che l’IA acceda a tutti quei dati. Si può esporre un piccolo campione, per godere dei vantaggi della visibilità, mantenendo i dettagli completi come tua proprietà intellettuale.
Oppure si può adottare “un approccio a tempo”. Ad esempio, se si dispone di una storia esclusiva, la si può limitare per 3 giorni per ottenere i vantaggi in termini di traffico, poi aprirla ai crawler IA in modo da godere dei vantaggi di visibilità e autorevolezza del marchio a lungo termine.
La gestione dell’IA non è “tutto o niente”. Per me occorre trovare il giusto equilibrio per la rilevanza del marchio, non per il traffico. Ma bloccare completamente il crawling AI significa perdere visibilità a favore di un concorrente.
Tu parli del crawling come strumento di gestione del brand, non più solo di indicizzazione. Ma se la reputazione di un’azienda dipende dai segnali raccolti e rielaborati dalle IA, non si rischia di consegnare la propria identità a sistemi opachi e imprevedibili? Come può un brand costruire e difendere la propria narrazione in un ecosistema dove la citazione vale più del click?
I sistemi di IA cercano il consenso. Pensate al passaparola. Se siete FIAT, potete dire di essere efficienti nei consumi e convenienti e l’ampio panorama di media, recensioni, thread nei forum, post sui social, copertura dei premi e organismi di certificazione sarà ampiamente d’accordo. Quindi gli LLM ripeteranno questo posizionamento.
Se la Ferrari provasse a dire lo stesso, non ci sarebbe consenso nel corpus. Ed è improbabile che l’LLM sarebbe “d’accordo”.
Per costruire una narrativa, è importante conoscere i punti di forza del tuo marchio e creare livelli autorevoli di consenso. È così che puoi influenzare in modo coerente i risultati dell’LLM.
Si continua a parlare di “contenuti di qualità” come se fosse il Sacro Graal. Tu proponi invece di parlare di “contenuti degni di essere distribuiti”, cioè su testi che riescono davvero a raggiungere e coinvolgere le persone. Cosa cambia, in pratica, quando si adotta questa prospettiva? E perché secondo te l’ossessione per l’EEAT sta portando molti brand a perdere visibilità invece di guadagnarla?
Un articolo può avere un “EEAT elevato”. È ben strutturato, redatto da esperti, mette in evidenza esperienze vissute con immagini originali, su domini autorevoli, ecc.
Eppure può comunque essere un contenuto banale. Qualcosa che il pubblico di riferimento ha già letto molte volte. Qualcosa, francamente, di noioso. I contenuti degni di essere distribuiti non saranno mai noiosi, perché se lo fossero, semplicemente non verrebbero condivisi.
Si tratta di riconoscere che la pubblicazione dell’articolo è il punto di partenza, non l’obiettivo finale. È necessario pianificare in modo proattivo su quali piattaforme si desidera ottenere visibilità. Se voglio ottenere visibilità nella ricerca, il modo in cui realizzo l’articolo è diverso da quello che userei se volessi ottenere copertura su Google Discover.
Spesso i marketer assumono un atteggiamento del tipo “verranno”, perché hanno investito molto nei contenuti e credono che la qualità sia sufficiente. Non è così. Per ottenere una visibilità ottimale, i contenuti devono stimolare il coinvolgimento. Per produrre un ROI, i contenuti devono anche aumentare la rilevanza del marchio.
Non si tratta di ciò che si crea. Si tratta di chi raggiunge e se ha un impatto sul lettore.
Descrivi la sitemap come uno strumento strategico per migliorare il crawling e la visibilità del sito, non solo come un documento tecnico da inviare a Google. In che modo una sitemap “intelligente” può davvero influenzare la SEO e aiutare i brand a capire dove stanno perdendo indicizzazione o traffico?
Quando le sitemap sono suddivise in modo intelligente in sezioni, è possibile capire come Google valuta l’autorità di una sezione. Questo è fondamentale, poiché i motori di ricerca giudicano un dominio sulla base di tutto ciò che è indicizzato.
Se è possibile identificare facilmente che la sezione A ha un’indicizzazione del 90%, mentre la sezione B ha solo il 15%, si sa esattamente dove concentrare l’attenzione per migliorare la salute complessiva del sito e si può misurare più facilmente l’impatto dei miglioramenti SEO.
Un contenuto non indicizzato, di fatto, non esiste. Cosa sta causando secondo te questo crescente “indice invisibile” di pagine che Google e Bing non registrano, e quali sono gli errori più comuni che impediscono ai contenuti di entrare davvero in scena?
La stragrande maggioranza dei siti è gonfiata. Hanno migliaia di pagine di scarso valore a causa di una cattiva gestione dei parametri, di tassonomie mal gestite o della mancanza di una gestione della durata delle pagine.
Sia Google che Bing stanno diventando più selettivi su ciò che consentono di inserire nell’indice, poiché si tratta del corpus per le superfici RAG by AI. Ciò significa che ha sia implicazioni sulla qualità dell’output LLM che sul costo.
Dal punto di vista del marchio, l’esistenza di tali pagine rallenta la scansione dei contenuti importanti, riduce l’autorità del dominio e, per quelli che riescono a entrare nell’indice, offre un’esperienza utente orribile che danneggia il coinvolgimento.
Pertanto, ogni pagina del sito web dovrebbe avere una ragione chiara per esistere. Io consiglio sempre di utilizzare GSC con sitemap segmentate e regex sui percorsi URL per analizzare quali sezioni funzionano e quali necessitano di miglioramenti.
Infine, vorrei chiederti una cosa che mi ha molto incuriosito… Spesso i marketer cercano ispirazione nei dati o nei trend, ma tu suggerisci di partire dai reclami, cioè dai momenti in cui il brand delude le aspettative. In che modo trasformare le lamentele in azioni SEO può rafforzare davvero un marchio, invece di limitarle a semplici interventi di “customer care”?
Eh sì, i reclami possono essere una miniera d’oro! Offrono indicazioni utili per migliorare il messaggio, correggere punti deboli e intervenire sugli snippet che influenzano la percezione nei motori di ricerca (e di risposta NdR).
Quando la valutazione a stelle di una pagina prodotto scende sotto 4, il CTR cala in modo significativo. Lo stesso vale per i modelli generativi: se le informazioni che assorbono provengono soprattutto da recensioni negative, la loro risposta tenderà a sconsigliare quel marchio. In questo scenario, i reclami non sono solo un tema di assistenza clienti, ma un indicatore diretto di come il brand viene rappresentato.
Penso che a volte dimentichiamo che il marketing si basava sulle 4P, di cui il prodotto era una. (Il modello delle 4P è uno schema classico del marketing che descrive gli elementi fondamentali su cui si costruisce una strategia efficace. Le quattro componenti sono: Prodotto, Prezzo, Place, Promozione NdR).
Ecco, se il prodotto è scadente, nessun SEO potrà compensare la percezione negativa nel lungo periodo.
Conquistare gli agenti IA: la posta in gioco per ogni brand
L’intervista con Jes Scholz ha evidenziato un passaggio epocale: la ricerca non è più un punto di contatto tra utente e motore, ma un ecosistema in cui gli agenti IA selezionano, filtrano e decidono al posto nostro.
La SEO resta centrale, ma si sposta su un terreno nuovo, dove contano la qualità del codice, la solidità del brand, la coerenza dei segnali esterni e la capacità di essere presenti prima ancora che inizi la ricerca.
È un cambiamento che costringe i marchi a ripensare la propria identità digitale, perché queste intelligenze valutano ciò che trovano senza pazienza, senza compromessi e senza dire “ma sì, dai, va bene anche così…”.
No, le IA non si accontentano di siti lenti, pagine confuse e non strutturate!
Dal mio punto di vista, l’arrivo degli agenti non riduce il ruolo dei professionisti del search, lo amplia.
Significa imparare a lavorare per un pubblico che non guarda le pagine, ma le interpreta.
Un pubblico che non si emoziona, ma riconosce pattern.
Un pubblico che, se trova ostacoli, non aspetta: passa oltre.
Guadagnarsi la fiducia di questi sistemi richiede rigore tecnico, contenuti realmente distribuiti e un brand capace di generare consenso nel corpus informativo da cui l’IA attinge.
Ringrazio Jes per la chiarezza, la profondità degli spunti e la disponibilità al confronto.
Ci ritroviamo la prossima settimana con un nuovo appuntamento di SEO Confidential!
#avantitutta

Celebriamo questi agenti come un progresso, ma stiamo solo affittando il nostro pensiero a terzi che non pagano l’affitto. Chi controlla il controllore?
Si celebra questa nuova era agentica come un progresso, quando in realtà è solo un’altra sovrastruttura per giustificare parcelle più alte. A volte mi sento un artigiano costretto a usare strumenti che non ha scelto.
Daniele, non è colpa degli attrezzi. Il legno è diventato acqua. L’artigiano saggio cambia mestiere, o impara a nuotare.