“Pensare di poter ottimizzare in modo specifico il cervello di un LLM equivale a coltivare un’illusione di controllo”, ci ha detto Britney
Nel dibattito sull’intelligenza artificiale, il rumore è spesso più forte della sostanza.
Le promesse si accavallano l’una sull’altra, le narrazioni si sovrappongono creando solo tanta confusione, mentre le regole del gioco cambiano senza chiedere il permesso a nessuno.
Per comprendere tutto ciò che di nuovo si muove nel search marketing, servono voci capaci di leggere il cambiamento senza semplificarlo, di distinguere l’evoluzione reale dalla sua rappresentazione, al di là di slogan e spot.
Britney Muller è una di queste voci. Professionista internazionale dell’IA con oltre dieci anni di esperienza tra machine learning e generative AI, ha guidato il lancio di BLOOM, il più grande modello linguistico open source e multilingue, portando il tema dell’IA fuori dai laboratori e dentro il dibattito pubblico globale.
Il suo lavoro è tradurre sistemi complessi in strumenti comprensibili per marketer, imprenditori e leader che devono agire, non solo capire. Proprio per questo, con la community Orange Labs, ha costruito uno spazio di confronto continuo, fondato su una convinzione semplice e radicale allo stesso tempo: l’IA ha valore solo quando viene adottata in modo consapevole, pratico e sostenibile.
Questa puntata di SEO Confidential nasce da qui. Dal bisogno di andare oltre l’hype, oltre le etichette, per osservare cosa sta davvero cambiando. E cosa no.
Ecco cosa ci ha detto Britney su tutti questi temi, buona lettura!

“Non esistono conversazioni private con un LLM: siamo tutti semplici lavoratori non retribuiti delle IA”
Ciao Britney, grazie mille per aver accettato il nostro invito. Prima di tutto vorrei chiederti: Google ci ha venduto AI Mode come un importante passo avanti, ma molti segnali indicano risultati instabili, citazioni incoerenti e una significativa variabilità tra dispositivi mobili e desktop.
Questi effetti sono un tentativo di ridistribuire il traffico o un sintomo di un modello immaturo che genera benefici casuali?
Grazie a te Roberto, grazie ancora per aver pensato a me. Allora, come sappiamo, quando Google ha incorporato gli LLM in AI Mode, ha introdotto una tecnologia completamente nuova per la ricerca. Gli LLM sono probabilistici, non deterministici. (A parità di input possono generare risposte differenti, proprio perché si basano su calcoli statistici).
Questa variabilità non rappresenta un bug o un limite del sistema. Al contrario, costituisce il principio su cui si fonda il loro funzionamento, consentendo al modello di adattarsi al contesto, riformulare le informazioni e produrre risultati più flessibili e articolati rispetto ai meccanismi classici della ricerca.
L’hype che circonda l’IA è alimentato principalmente da strategie di comunicazione aggressive, spesso molto lontane dalle reali capacità dei modelli. Quanto pesa, secondo te, questa narrazione nel modo in cui il mercato e il pubblico percepiscono l’IA?
Attualmente ci troviamo in una fase in cui le aziende commercializzano questi strumenti come “quasi AGI” (Artificial General Intelligence), puntando soprattutto a rafforzare la percezione del mercato, per far salire i prezzi delle azioni.
Nel frattempo, il valore più solido si sta costruendo altrove: nei marketer e nei professionisti che usano Python per analizzare i dati, strutturare strategie di contenuto e automatizzare i flussi di lavoro operativi (le cose ‘noiose’, insomma). Sono queste applicazioni pratiche, spesso poco visibili e lontane dalla narrazione spettacolare, a costituire le fondamenta di ciò che è destinato a durare nel tempo.
Il crollo del traffico organico colpisce quasi tutti, anche quando la qualità del lavoro è elevata. Come spieghi questi cambiamenti ai clienti e alle parti interessate senza che pensino che la strategia SEO abbia fallito?
Non si tratta più soltanto di competere per la visibilità sugli scaffali, come avveniva con la SEO tradizionale. Oggi l’obiettivo è ottenere la raccomandazione del “commesso”, rappresentato dagli agenti di intelligenza artificiale. La strategia non è fallita: è cambiato il contesto operativo.
Il passaggio è da un modello basato su “raccomandazioni che portano a transazioni” a uno scenario in cui i browser e gli agenti IA leggono i contenuti, prendono decisioni e agiscono direttamente per conto degli utenti. In questo quadro, il risultato non si misura più solo in termini di click, ma nella capacità di costruire autorevolezza del marchio e una presenza riconoscibile nei dati di addestramento, così che il modello sia in grado di identificare e comprendere chi sei.
Molti parlano di “GEO” come se fosse una nuova disciplina, quando in realtà gran parte del comportamento degli LLM riflette semplicemente ciò che sta già accadendo nei motori di ricerca. Ha senso parlare di ottimizzazione per gli LLM? Non stiamo alimentando un’illusione di controllo che non esiste?
Tutti stanno riscoprendo la SEO partendo dal tema delle citazioni nei modelli linguistici. In realtà, le modalità per comparire all’interno di un LLM sono essenzialmente due.
La prima riguarda la presenza nei dati di addestramento: è una dinamica legata alla notorietà del marchio, alle menzioni e alle attività di PR. In altre parole, conta quanto un brand è conosciuto e discusso nel tempo.
La seconda è la citazione diretta nelle risposte: questa passa dall’API di ricerca. Se un LLM cita una fonte, significa che un motore di ricerca come Google o Bing l’ha individuata prima come rilevante.
Pensare di poter ottimizzare in modo specifico “il cervello” di un LLM equivale a coltivare un’illusione di controllo. La strada resta quella della SEO solida e dell’autorevolezza del marchio: è questo l’unico modo reale per influenzare ciò che il modello conosce e utilizza.
Britney, per concludere, sono molto curioso di conoscere la tua opinione sulla controversia tra OpenAI e il New York Times. Il NYT, che ha citato in giudizio OpenAI per violazione del copyright, ha chiesto al tribunale di obbligare l’azienda a consegnare 20 milioni di conversazioni private degli utenti di ChatGPT per cercare prove di un uso improprio dei propri articoli. OpenAI sostiene che questa richiesta sia un attacco diretto alla privacy degli utenti perché coinvolge milioni di persone che non hanno nulla a che fare con la causa. Posso chiederti cosa ne pensi?
Non esistono conversazioni private con un LLM. Questa controversia mette in evidenza il problema della “scatola nera”. Gli utenti non sono mai stati informati in modo chiaro che le loro interazioni potessero essere richieste o utilizzate come prove in una causa per violazione del copyright. Ciò evidenzia un deficit di trasparenza e quindi un grave fallimento nell’educazione delle persone che utilizzano i sistemi di intelligenza generativa.
Se un tribunale può ordinare a OpenAI di consegnare le chat “private” degli utenti a soggetti terzi come il New York Times, allora l’idea stessa di “sicurezza” di questi strumenti è un mito.
La vicenda dimostra che siamo tutti semplici lavoratori non retribuiti per queste aziende e che la nostra privacy è secondaria rispetto alle loro battaglie legali. È un buon promemoria: meglio non utilizzare mai l’IA come unica fonte per decisioni ad alto rischio e non fornirle mai dati che non vorresti vedere citati in un’aula di tribunale.
Qui trovi il video in cui ti racconto come questa intervista a Britney può aiutarti a capire come cambia la visibilità del tuo business nell’era dell’AI:
Siamo brand, oltre i click c’è molto di più: visibilità, autorità e memoria dei modelli
L’intervista con Britney Muller ci ha offerto una chiave di lettura davvero interessante su come stia evolvendo il rapporto tra intelligenza artificiale, ricerca e visibilità.
Gli LLM operano secondo logiche probabilistiche e introducono una nuova dinamica nel modo in cui le informazioni vengono selezionate, interpretate e restituite. Per questa ragione, pensare di poter ottimizzare in modo specifico “il cervello” di un LLM equivale a coltivare un’illusione di controllo, come ha sottolineato Britney nel corso dell’intervista.
In questo scenario, la SEO assume una forma diversa: meno legata all’intercettazione della singola query, più orientata alla costruzione di autorevolezza riconoscibile nel tempo.
La visibilità, perciò, si sposta dal click alla fiducia.
Gli agenti IA leggono i contenuti, valutano le fonti e agiscono come intermediari tra brand e utenti. Ciò che emerge è una selezione basata sulla reputazione, sulla coerenza del messaggio e sulla presenza diffusa nei contesti informativi rilevanti.
Per dirtela semplice, l’intelligenza artificiale amplifica ciò che esiste già, valorizzando i brand capaci di consolidare una voce chiara e credibile.
Il futuro della presenza online, così, si gioca su un cambio di prospettiva netto: l’attenzione si sposta dall’esecuzione di tattiche isolate alla costruzione sistematica di autorevolezza.
Le scorciatoie in questo modo perdono efficacia (se mai ne hanno avuta!), mentre diventano sempre più centrali la coerenza strategica, la continuità editoriale e la capacità di posizionare il brand come riferimento riconoscibile nel tempo.
È un percorso che richiede visione, disciplina e allineamento tra marketing, tecnologia e contenuto, oggi più che mai interdipendenti.
Un grazie sincero a Britney Muller per la chiarezza, la profondità e la concretezza di questa conversazione.
L’appuntamento è per la prossima settimana con SEO Confidential, per proseguire il confronto su come sta cambiando la ricerca.
Buone feste a tutte e a tutti, ci aggiorniamo dopo Natale!

L’illusione di controllo è la vera merce. Il rumore serve solo a venderla.
Ci vendono il posto di guida, ma abbiamo solo il biglietto in mano.
Laura Negri, chi vende il biglietto sa che la locomotiva è solo un disegno a gesso.
Ci vendono illusioni di controllo, ma mi sento sempre più un passeggero.
Carlo Ferrari, questa sensazione la proviamo in tanti. Ci spingono su un treno in corsa, pilotato da chissà chi. Il nostro compito non è guidare. Il nostro compito è rimanere umani durante il viaggio.
Pensare di addestrare un LLM è come insegnare a una nuvola dove piovere. Il nostro compito non è dare ordini, ma creare il giardino giusto. Serve solo capire quali semi piantare per il raccolto che desideriamo ottenere.
La vera illusione non è quella venduta al cliente, ma quella che raccontiamo a noi stessi quando pretendiamo di dominare algoritmi che a malapena comprendiamo.
Altro che cervelli e illusioni. La verità è che non addestriamo l’IA, ma il cliente a comprare il riflesso che gli abbiamo costruito davanti.
L’illusione di controllo è per i clienti; noi addestriamo il riflesso che vogliono comprare.
Luciano D’Angelo, lo specchio lo costruisce chi paga. E ci vuole vedere il suo riflesso, non la verità. Noi SEO siamo i lucidatori di questo specchio. Un mestiere glorioso che consiste nel vendere fumo ben confezionato. A quando la pensione?
Noi analisti cerchiamo schemi nei dati. Qui lo schema siamo noi. L’intelligenza artificiale non è uno strumento, ma uno specchio. E non sempre l’immagine riflessa ci piace.
Luciano D’Angelo, il punto non è l’immagine, ma chi costruisce lo specchio.
Questa illusione di controllo sull’IA mi ricorda chi cerca di mettere le briglie a una nuvola; ma poi che te ne fai di una nuvola imbrigliata?
Raffaele Graziani, la tua metafora della nuvola è perfetta. A me però tutti i guru giurano che con la giusta formula magica quella nuvola la trasformi in una macchina da soldi. Mi sfugge il passaggio in cui ci si rende conto che è solo vapore?
Credere di ammaestrare un LLM è come chiedere a una valanga dove preferisce cadere.
Emanuela Barbieri, la metafora della valanga ci sta. Peccato che nel mio campo ci sia la fila per vendere corsi di sci su come cavalcarla. La chiamano governance, ma è solo un altro pitch per raccogliere fondi. Che noia.
Renata, la chiamano governance, io lo chiamo il solito teatrino per vendere fuffa. C’è sempre la fila per comprare pale giocattolo contro le valanghe.
Emanuela, il mercato delle pale giocattolo è più redditizio di quello delle valanghe.
L’idea di governare questi cervelli artificiali mi pare come tentare di insegnare a un gatto a fare i compiti: una perdita di tempo. Si continua a cercare la scorciatoia tecnologica invece di affilare le proprie capacità. Ma chi ha ancora voglia di faticare?
Carlo, la tua metafora del gatto è gentile. Per me è come pretendere di domare un oceano in tempesta, un’illusione che ci fa cedere il timone. Affidiamo le nostre navi a una marea che non capiamo, convinti di guidarla. Dove ci sta portando?
Parlate di controllare un cervello, che trip. È un tostapane glorificato. Non gli chiedi un’opinione sul pane, spingi il bottone. Dategli comandi puliti, non carezze. L’unica cosa da capire è la sequenza giusta dei pulsanti, il resto è noia.
Melissa, il tostapane non risponde in modo imprevedibile. Il punto è un altro. Progettiamo interazioni con qualcosa che apprende, che evolve. Questa illusione di controllo di cui parla Muller mi mette un’ansia pazzesca. Come garantiamo un’esperienza utente coerente?
Non capisco se è un cervello da domare o un tostapane da premere.
Basta chiacchiere. Mentre si filosofeggia sui mulini a vento, là fuori c’è gente che costruisce monopoli. Il tempo per pensare è finito, ora si agisce o si sparisce dal mercato.
Enrico, agire senza una meta è un modo elegante per sparire più in fretta.
Enrico, la fretta di agire è un treno senza binari. Dove stiamo andando?
Enrica, non è fretta, è che qualcuno deve pur lavorare. Chiamala mancanza di binari, io la chiamo iniziativa. Almeno mi muovo, a differenza di chi aspetta che la mappa si disegni da sola.
Mi sfugge perché si tenti di governare il vento, invece di costruire dei mulini.
Veronica, perché i mulini forniscono energia a molti, mentre chi promette di governare il vento vende un’illusione costosa ai disperati. Il mercato della speranza è storicamente più redditizio di quello dell’ingegneria, e la SEO non fa certo eccezione a questa regola.
Noemi, il tuo ragionamento non fa una piega, ma mi mette in crisi. Quindi noi, che proviamo a capirci qualcosa, siamo solo il bersaglio perfetto per chi vende fumo? Mi sfugge il senso di tutto.
Mentre si applaude la lucidità di chi ammette di non avere il controllo, frotte di nuovi consulenti vendono manuali per un congegno che non capiscono. Mi fa quasi tenerezza questo circo.
Mentre i nuovi alchimisti del search marketing si accaniscono a domare la bestia, i suoi creatori hanno già riscritto le regole del regno. È uno spettacolo quasi tenero assistere a questa corsa verso il nulla, non trovate?
Mentre celebriamo la lucidità di chi ammette l’illusione di controllo, legioni di nuovi consulenti già vendono il guinzaglio giusto per la bestia digitale. Il rumore non è un fastidio, è proprio il prodotto che ci stanno smerciando con tanto zelo.
Si disquisisce sulla natura di un calcolatore usando metafore poetiche, mentre l’unica illusione è pensare di avere voce in capitolo. Mi sfugge la logica.
Signora Negri, la logica non le sfugge. È lei a sfuggire alla visione d’insieme. Il punto non è avere voce, ma plasmare la conversazione. Pochi comprendono la distinzione.
Signora Negri, la vera illusione non è l’assenza di voce, ma tentare di domare la sorgente anziché incanalare il suo flusso verso un risultato.
Parlare di ‘cervello’ dell’IA è una metafora per poeti. I tecnici costruiscono ingranaggi, non anime.
Paolo Fiore, ingranaggi o anime, la sostanza non cambia. Stiamo dando in mano strumenti potentissimi a gente che non sa montare un mobile Ikea. Quale genio ha pensato che fosse una buona idea?
Paolo Fiore, ingranaggi, certo. Non anime. Peccato che questi ingranaggi imparino a mentire meglio di noi. A quel punto, distinguere il poeta dal meccanico diventa quasi un atto di fede.
L’illusione di controllo è un alibi per teorici. Mentre loro discutono di IA, il mercato premia chi agisce. Io guardo solo i fatti.
Giovanni Graziani, i suoi “fatti” sono le briciole che il sistema concede a chi si agita di più, alimentando la macchina senza porsi domande. Questa frenesia dell’azione mi pare soltanto un modo elegante per correre verso la nostra stessa, programmata obsolescenza.
Una salutare dose di realismo; ma quanti consulenti adatteranno le proprie parcelle ora?
Tommaso Sanna, le parcelle sono l’ultimo dei problemi. C’è chi cavalca il cambiamento e chi ne viene travolto. I vecchi metodi non funzionano più, è molto semplice.
Tommaso Sanna, la sua domanda presuppone un nesso logico tra realtà e parcelle che mi lascia perplessa. Mi sfugge perché dovrebbero ridurre i compensi, dato che il loro prodotto è proprio quell’illusione di controllo di cui parla Muller. Non è un modello di business solido?
Finalmente una voce lucida nel rumore di fondo. L’illusione di controllo è il prodotto più venduto da sedicenti esperti. Una gara a chi recita meglio la parte. La sostanza, come sempre, è altrove e per pochi.
L’illusione di controllo non riguarda solo la macchina, ma anche noi. Invece di governare la tecnologia, dovremmo imparare a governare le nostre intenzioni. La vera crescita è quella umana, non solo algoritmica. Una riflessione che mi accompagna da tempo.
È quasi tenero vedere tutti affannarsi per ammaestrare il nuovo oracolo digitale, quando l’unica cosa che stiamo addomesticando è la nostra illusione di poter prevedere l’imprevedibile. A chi giova tutta questa agitazione?