SEO Confidential – La nostra intervista esclusiva a Pedro Dias: “serve pensiero critico, non solo contenuti”

“Il tracciamento IA è solo spazzatura mascherata da intuizione”: Pedro Dias demolisce i falsi miti della visibilità moderna

Premi play e ascolta di cosa tratta l’intervista a Pedro Dias

Bentornata e bentornato su SEO Confidential, lo spazio in cui ogni settimana si dà la parola alle voci più autorevoli della SEO internazionale per capire come sta cambiando il modo di farsi trovare online, tra entusiasmi, timori e interrogativi concreti per imprenditori, editori e professionisti del digitale.

L’ospite di questa puntata è Pedro Dias, uno dei nomi più autorevoli quando si parla di visibilità nel web contemporaneo.

Dopo l’esperienza nel Search Quality team di Google e ruoli di leadership in aziende come eBay, Reach plc e JoVE, oggi Pedro aiuta organizzazioni e redazioni a costruire sistemi scalabili che rendano i contenuti realmente individuabili: nei motori di ricerca tradizionali, nelle risposte dei chatbot e dentro gli ecosistemi governati dall’intelligenza artificiale.

Nell’intervista affronteremo questioni che attraversano l’intero settore: il confine sempre più sottile tra automazione e competenze umane, il valore dell’originalità nell’era dei modelli generativi, l’uso non autorizzato dei contenuti da parte delle piattaforme, la fragilità delle metriche che pretendono di quantificare la “visibilità IA” e il rischio, evocato da molti studi, di un web impoverito da dati sintetici e modelli che si addestrano l’uno sull’altro.

Troverai pareri netti, a volte anche divisivi, ma anche spunti per orientarsi in un ecosistema che cambia a una velocità impressionante.

Ti auguro buona lettura.

Pedro Dias intervistato dal SEO Roberto Serra
Pedro Dias

“La cosiddetta nuova visibilità è solo la vecchia visibilità con un paio di baffi finti”, ci ha detto Pedro Dias

Se una parte crescente del lavoro SEO verrà assorbita dall’IA, quali competenze diventano davvero decisive per restare utili ai clienti e non essere sostituiti dall’automazione?

Credo che l’intelligenza artificiale assorbirà gli aspetti operativi della SEO piuttosto che quelli strategici. L’automazione gestirà compiti quali l’utilizzo degli strumenti, l’analisi dei dati e l’identificazione dei modelli. Di conseguenza, penso che i SEO debbano dare priorità al pensiero critico e alla strategia, dimostrando il proprio valore attraverso l’innovazione e la risoluzione creativa dei problemi. In definitiva, i professionisti della SEO devono evolversi in decisori orientati alla crescita che supervisionano l’esecuzione operativa.

Dici che pubblicare troppo know-how finisce per nutrire modelli che poi competono con chi crea contenuti. Visto che molti sistemi ignorano i blocchi e continuano a raccogliere dati, quale strategia può adottare oggi un professionista per proteggere il proprio valore senza perdere visibilità online?

Ritengo che se si pubblica gratuitamente tutto ciò che si sa, si finirà probabilmente per avere un vantaggio competitivo debole, se non addirittura nullo. L’intelligenza artificiale è nata per soddisfare specifiche esigenze di risoluzione dei problemi e la maggior parte di noi la utilizza per avviare rapidamente le attività. Tuttavia, con l’aumentare delle capacità dell’intelligenza artificiale, aumentano anche le sue competenze. Più dati di addestramento consuma, più diventa capace.

I SEO sono stati storicamente grandi sostenitori della condivisione aperta delle conoscenze. Ma in un settore guidato dalla strategia e dalla necessità di essere all’avanguardia, questa apertura potrebbe portare a una corsa al ribasso, poiché l’intelligenza artificiale assorbe le vostre migliori intuizioni.

Ora spetta a ogni professionista valutare quanto è disposto a investire nella pubblicazione e quanto approfonditi devono essere i contenuti. L’obiettivo è trovare un equilibrio: rivelare abbastanza per mostrare le proprie competenze, ma trattenere abbastanza per proteggere il proprio vantaggio competitivo.

Cloudflare offre ai siti un controllo molto più esplicito sull’uso dei contenuti da parte dell’IA. Può essere l’inizio di una reale ridefinizione del patto tra creatori e piattaforme, oppure resta un segnale simbolico finché Google, OpenAI, Anthropic e le altre Big Tech non chiariscono come intendono muoversi?

Abbiamo urgente bisogno di un meccanismo di controllo per salvaguardare i nostri interessi. Ogni produttore di contenuti, creatore, artista e ricercatore dovrebbe avere voce in capitolo su come e da chi vengono utilizzati i propri contenuti.

Il web aperto non dovrebbe essere un archivio gratuito dove chiunque può semplicemente prendere e riutilizzare contenuti senza accordo o consenso. Abbiamo vissuto un cambiamento simile all’inizio degli anni 2000, quando sono emersi i motori di ricerca, e avremmo dovuto imparare da quell’esperienza.

Sebbene l’implementazione del protocollo di esclusione robots.txt sia stato un passo nella giusta direzione, in realtà è come una porta di vetro aperta con una lista degli ospiti scritta su un post-it: chiunque può entrare senza chiedere il permesso o essere sulla lista.

Indipendentemente dai gesti di buona volontà o dai controlli sui dati offerti dalle aziende tecnologiche, abbiamo bisogno di un sistema che dia un controllo unilaterale e indiscusso ai creatori. Altrimenti, temo che l’incentivo a produrre contenuti svanirà, lasciandoci con un web significativamente più povero.

Cloudflare ha attribuito il blackout globale a una singola query errata che ha mandato in crisi il sistema di protezione dai bot. È un incidente isolato o rivela una fragilità strutturale dell’infrastruttura su cui si appoggia una parte enorme del web?

Credo che qualsiasi singolo punto di errore in un’infrastruttura così critica debba essere motivo di grande preoccupazione. Siamo diventati fortemente dipendenti dai servizi web sia per il nostro lavoro che per la nostra vita quotidiana. Quasi tutti gli elettrodomestici, i dispositivi elettronici e i gadget intelligenti si connettono a un’istanza CDN o AWS da qualche parte.

Di conseguenza, è inaccettabile che l’intero ecosistema si fermi a causa di un singolo punto di errore. Proprio come abbiamo a disposizione più percorsi e modalità di viaggio tra cui scegliere, dobbiamo creare ridondanze digitali per garantire che il web continui a funzionare anche se un singolo fornitore di servizi dovesse fallire.

Molti tool promettono di misurare la visibilità nelle risposte IA, ma ci sono dubbi enormi su personalizzazione, contesto e limiti tecnici dei modelli. Se questi fattori non vengono considerati, che tipo di realtà rappresentano davvero quei numeri? Per quale motivo, secondo te, una parte della comunità SEO sembra così restia a mettere davvero in discussione la qualità e l’affidabilità dei dati che questi tool forniscono?

Rappresentano un’allucinazione statistica. Quando gli strumenti ignorano la natura non deterministica degli LLM, insieme alla mancanza di accesso al contesto dell’utente, i numeri che producono sono essenzialmente “spazzatura”.

Abbiamo a che fare con scatole nere stocastiche, non con indici deterministici. Pertanto, queste metriche non rappresentano una ‘classifica’, ma piuttosto un “biglietto della lotteria”. Uno strumento potrebbe dirti che sei visibile in una risposta, ma senza comprendere la temperatura, il seme e il contesto specifico dell’utente, quel dato è solo rumore mascherato da intuizione.

Per quanto riguarda la mancanza di reazioni da parte dei SEO, credo che sia perché l’alternativa è ammettere che attualmente stiamo volando alla cieca. Il settore sta affogando in un mare di illusioni; le agenzie e i professionisti sono sottoposti a un’enorme pressione per dimostrare il ROI delle “strategie di IA”.

Mettere in discussione i dati significherebbe ammettere che i grafici “direzionali” che mostrano ai clienti sono in gran parte basati su supposizioni. È più facile accettare il “miraggio” della visibilità esclusiva dell’IA che ammettere che attualmente non esiste un modo scientifico per misurarla, soprattutto quando nemmeno gli ingegneri che costruiscono questi modelli sono in grado di spiegare completamente il percorso di inferenza.

Molte delle “novità” della GEO non sono altro che principi SEO che avrebbero dovuto valere da sempre, come brand, autorevolezza e qualità del prodotto. Come spieghi allora che una parte dell’industria continui a inseguire metriche superficiali e a vendere vecchie pratiche come se fossero rivoluzioni? E quali rischi corre chi costruisce la propria strategia su questa narrativa?

È un classico caso di “pensiero magico” alimentato dal bisogno frenetico di rimanere rilevanti. Attribuendo acronimi come GEO o AEO a principi fondamentali come ‘chiarezza’ e “struttura”, il settore crea una battaglia artificiale per vendere nuovi servizi.

Ciò suggerisce che gli LLM abbiano sviluppato un gusto sofisticato e unico per la qualità che Google in qualche modo ha trascurato, quando in realtà l’ottimizzazione riguarda ancora solo il modo in cui le macchine acquisiscono e comprendono i dati.

Il rischio è che le persone stiano costruendo la loro strategia sulla “temperatura e sul rumore” piuttosto che su basi sostenibili. Se credete di aver svelato una variabile segreta “solo IA” perché un chatbot ha trasformato il vostro marchio in una frase, state confondendo un lancio di dadi probabilistico con una strategia.

Il pericolo è che quando si ottimizza per la previsione stocastica dei token piuttosto che per il fondamento deterministico (RAG), i risultati sono casuali. Non avete superato in astuzia un algoritmo, avete solo avuto fortuna nella catena di inferenze. Questo non è un modello di business, è un gioco d’azzardo.

Quando si parla di tracciare la visibilità nelle risposte IA, molti paragonano la personalizzazione dei prompt alla personalizzazione dei risultati di ricerca tradizionali. Quanto è davvero corretta questa equivalenza e quale ruolo giocano, in questo contesto, i limiti ormai evidenti del keyword tracking e dei sistemi basati su gruppi di query?

Si tratta di un malinteso fondamentale sulla differenza tra un indice e un generatore. Confrontare i due è tecnicamente errato. La ricerca tradizionale è un recupero deterministico; le risposte dell’IA sono previsioni probabilistiche.

L’unica parte prevedibile di una risposta dell’IA è il “grounding” (RAG), che si basa sugli stessi identici meccanismi di recupero (indicizzazione, ricerca vettoriale) della ricerca tradizionale. Non esiste un magico “livello di recupero dell’IA” separato dalla realtà tecnica.

I limiti confermano che la maggior parte del “tracciamento IA” è inutile. Poiché non possiamo vedere o estrarre la personalizzazione basata sul contesto di un LLM e poiché non disponiamo di dati verificabili su come gli utenti effettivamente interrogano questi sistemi, qualsiasi strumento che affermi di tracciare questo aspetto sta “attingendo a supposizioni”

Se non sei indicizzabile e analizzabile secondo i principi di ricerca standard, non puoi essere utilizzato per il grounding. Pertanto, la “nuova” visibilità è solo la vecchia visibilità di recupero con un paio di baffi finti. Finché non avremo dati che non siano solo rumore “spazzatura”, tratteremo i pappagalli stocastici come oracoli.

L’espressione papagallo stocastico viene usata per descrivere un’IA che ripete ciò che ha imparato dai dati senza capirlo davvero. Il modello analizza enormi quantità di testi, individua i pattern più probabili e li combina per creare nuove frasi. L’effetto finale ricorda un pappagallo che imita la voce umana: le parole suonano sensate, ma dietro non c’è comprensione, solo statistica (NdR).

Lo studio di Kaiser e Schulze mostra che il traffico da ChatGPT è quasi invisibile e converte pochissimo, mentre Google continua a dominare la fase decisionale. Come valuti questo divario così netto tra “comprendere” e “comprare” nei comportamenti degli utenti?

Questo divario non è una sorpresa: è l’architettura della tecnologia. I motori di ricerca funzionano come hub di transito: il loro valore sta nel reindirizzarti verso una destinazione. Gli LLM funzionano come destinazioni: il loro valore sta nel sintetizzare la risposta in modo che tu non debba andartene.

Lo studio conferma esattamente ciò che la realtà tecnica impone: quando un’IA utilizza con successo il grounding (RAG) per rispondere a una query, soddisfa l’intento in situ. La statistica del “traffico basso” è in realtà la prova che i modelli stanno facendo il loro lavoro: estrarre informazioni ed eliminare la necessità di cliccare.

Per quanto riguarda il divario di conversione: gli utenti non sono stupidi. Quando sono in gioco dei soldi, desideriamo una certezza deterministica. Ci fidiamo di un elenco navigabile di siti web/fornitori verificati (Google) piuttosto che di una raccomandazione probabilistica di un chatbot che potrebbe essere inaffidabile. Usiamo l’IA per riassumere il manuale, ma usiamo la ricerca per acquistare l’auto.

Gli studi EBU–BBC mostrano che gli assistenti IA sbagliano quasi la metà delle volte e basano molte risposte su fonti assenti o fuorvianti. Come valuti l’impatto di questa inaffidabilità sulla visibilità e sulla reputazione delle aziende che dipendono dalla ricerca online?

Questo studio conferma ciò che i realisti tecnici hanno messo in guardia fin dal primo giorno: la corsa alla “visibilità dell’IA” è in realtà un azzardo.

Recentemente ho condiviso uno studio che evidenzia come le allucinazioni siano una caratteristica strutturale del design, non un bug (ecco il link al paper).

Questi modelli non sono progettati per la verità, ma per la plausibilità. Per definizione, privilegiano la fluidità rispetto all’accuratezza. Pertanto, quando la BBC rileva alti tassi di errore, non stiamo necessariamente assistendo a un malfunzionamento, ma al funzionamento del sistema esattamente come è stato progettato.

Se questi modelli hanno allucinazioni nel 50% dei casi, lottare per essere inclusi nelle loro risposte significa che statisticamente si ha la stessa probabilità di far parte di una bugia che di far parte di un fatto.

Per un marchio, questo non è solo un problema di accuratezza, ma una grave crisi di sicurezza del marchio che sta per verificarsi. Dobbiamo smettere di fingere che gli LLM siano basi di conoscenza; sono completatori di frasi probabilistici. Quando un modello inventa una fonte o attribuisce una falsa affermazione a un’azienda, non sta “commettendo un errore” nel senso umano del termine, ma sta semplicemente prevedendo il prossimo token plausibile in base ai suoi pesi di addestramento.

Per le aziende, questo crea un pericoloso paradosso: l’industria le spinge a ottimizzare una piattaforma che potrebbe distruggere con sicurezza la loro reputazione nella prossima inferenza.

Fino a quando i meccanismi di Grounding (RAG) non saranno applicati rigorosamente e il tasso di allucinazioni non scenderà da “lancio di moneta” a “quasi zero”, costruire una strategia sulla visibilità dell’IA non è marketing, ma ha alte probabilità di trasformarsi in gestione delle responsabilità. Ciò rafforza il motivo per cui la ricerca deterministica e affidabile rimane l’unico ambiente sicuro per le query transazionali e fattuali.

Le ricerche accademiche parlano di “marciume cerebrale” nei modelli addestrati con contenuti scadenti, innescando un ciclo di degradazione difficile da invertire. Che tipo di rischi vede per l’intero ecosistema informativo se i modelli continuano a nutrirsi di dati generati da altre IA?

Vedo questa dinamica trasformarsi in una profezia che si autodistrugge, o in ciò che i ricercatori definiscono Model Collapse. Si sta costruendo un “uroboro digitale”, il serpente che divora la propria coda. I modelli di intelligenza artificiale sono motori probabilistici che operano convergendo verso la media; attenuano le eccezioni per generare contenuti “medi” e plausibili.

L’innovazione, però, nasce nelle eccezioni. Se l’ecosistema viene sommerso da contenuti sintetici e uniformi, e i modelli iniziano ad addestrarsi su quel materiale, la qualità dell’informazione scivola in un circuito di errori e mediocrità.

Questo processo corre più veloce per il fattore economico citato prima: l’incentivo. Se chi crea contenuti non viene ricompensato per la novità perché il suo lavoro viene estratto senza consenso o attribuzione, smetterà semplicemente di pubblicare.

L’IA non può inventare: può solo rimescolare.

Se si elimina l’incentivo umano a produrre il “nuovo”, si taglia il combustibile che alimenta questi modelli. Il risultato probabile sarà un’IA più povera e una cultura ferma.

L’IA espone i marchi a rischi reali, servono contenuti solidi per difendersi

L’intervista con Pedro Dias ha illuminato una verità che il dibattito tende spesso a eludere: il valore reale della SEO nell’era dell’intelligenza artificiale non coincide con la produzione meccanica di contenuti, ma con la capacità di mantenere un pensiero critico in un ambiente dominato da sistemi probabilistici.

Le sue osservazioni sul rischio di un “uroboro digitale” mostrano cosa può accadere se i modelli continuano a nutrirsi di ciò che essi stessi generano: una graduale omologazione dell’informazione, con l’innovazione che si assottiglia fino quasi a scomparire.

Non è un destino inevitabile, a mio parere, ma un campanello d’allarme che non possiamo trascurare.

Per evitarlo, però, serviranno incentivi chiari alla creazione di contenuti autentici, originali e verificabili, perché nessun modello può sostituire l’intuizione umana che genera idee nuove.

Il concetto di pappagallo stocastico, richiamato più volte da Pedro, ci offre uno spunto davvero interessante: l’assenza di una reale comprensione da parte dei modelli rende inevitabile la produzione di sequenze plausibili ma non necessariamente accurate.

Senza una supervisione attenta, questi sistemi tendono a replicare pattern statistici che possono sembrare corretti in superficie, ma che si traducono in errori, distorsioni o attribuzioni infondate. Le allucinazioni delle IA dimostrano quanto sia fragile il legame tra questi modelli e la realtà fattuale, con conseguenze potenzialmente gravi per la reputazione delle aziende citate in modo improprio.

Dal mio punto di vista, investire su contenuti utili, solidi, verificabili e creati da professionisti non è solo una scelta qualitativa, ma una misura di tutela per l’intero sistema informativo.

Significa preservare un bacino di conoscenze affidabili da cui attingere e impedire che il web venga saturato da materiale sintetico incapace di sostenere interrogazioni complesse.

Un ecosistema basato su dati verificati giova a tutti: alle imprese, agli utenti e persino alle piattaforme che si nutrono di quei contenuti per generare risposte migliori.

Ringraziamo Pedro Dias per la profondità delle sue analisi e per la chiarezza con cui ha delineato sfide e possibilità.

Ci rivediamo alla prossima puntata di SEO Confidential con un altro ospite imperdibile.

#avantitutta

Roberto Serra

Mi chiamo Roberto Serra e sono un digital marketer con una forte passione per la SEO: Mi occupo di posizionamento sui motori di ricerca, strategia digitale e creazione di contenuti.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Ricevi i migliori aggiornamenti di settore