Tra autorevolezza, reputazione e controllo della narrazione, i brand si giocano oggi traffico, fiducia e conversioni nei motori di risposta basati sull’IA
Milioni di ricerche non arrivano più a destinazione, non atterrano su nessun sito, non generano click, non portano traffico. Vengono intercettate, sintetizzate e consegnate all’utente direttamente all’interno di una risposta generata dall’intelligenza artificiale.
ChatGPT, Perplexity, Gemini, Claude: i nuovi portieri della visibilità online non mostrano dieci link blu. Mostrano una risposta. E in quella risposta, o ci sei tu, o non esiste alternativa.
Per i brand, questo è un cambio epocale e, se mi leggi, sai bene quanto pesi le parole.
La domanda dunque non è più solo “come mi posiziono su Google?”, ma “riesco a influenzare ciò che un modello linguistico dice di me quando un potenziale cliente chiede un consiglio?”
Benvenuta e benvenuto a una nuova puntata di SEO Confidential, lo spazio in cui mi confronto con i professionisti della ricerca più autorevoli e riconosciuti a livello internazionale per capire, senza filtri, dove sta andando questo settore.
Oggi ho il piacere di dialogare con John Campbell, Head of Innovation and AI di ROAST, agenzia britannica integrata di performance media, e una delle voci più lucide nel dibattito sull’AI search e sulla Generative Engine Optimization.
In questa intervista affrontiamo tutto ciò che un imprenditore o un marketer deve capire adesso per non scomparire dalle risposte dell’IA: come costruire autorevolezza che i modelli linguistici riconoscono, come misurare l’impatto reale sul business, come difendere la propria narrazione da fonti terze inaffidabili, come leggere la share of voice senza farsi ingannare dai numeri, e cosa pensare degli annunci pubblicitari in arrivo su ChatGPT.
Niente teorie astratte. Solo risposte concrete, da chi lavora ogni giorno su questi problemi con clienti reali.
Buona lettura. 👇

Contro la Negative GEO: presidiare la narrazione con contenuti autorevoli e proprietari
Sempre più ricerche vengono ormai soddisfatte direttamente all’interno di risposte generate dall’intelligenza artificiale, senza che gli utenti visitino mai i siti web: cosa dovrebbe fare concretamente un brand per evitare di scomparire e riuscire davvero a influenzare quelle risposte?
Secondo me i brand dovrebbero concentrarsi su tre aree chiave. La prima è la costruzione di contenuti solidi e autorevoli sul proprio sito web: è da qui che i modelli linguistici attingono direttamente, offrendo al brand la possibilità di influenzare le risposte generate e di ottenere eventuali link di citazione.
La seconda riguarda la presenza del brand sui siti di terze parti citati dai modelli linguistici, come testate giornalistiche, siti di recensioni e blog: è fondamentale che il marchio venga menzionato in modo positivo, accurato e coerente.
La terza è il mantenimento di una presenza attiva sulle piattaforme social, dal momento che i modelli linguistici attingono sempre più spesso anche ai contenuti pubblicati sui social network: è quindi molto meglio che vengano intercettati i contenuti e gli account ufficiali del brand, piuttosto che lasciare questo spazio nelle mani di altri.
Molti sono alla ricerca di “trucchi” per essere citati dall’intelligenza artificiale, ma senza una struttura tecnica solida, dati strutturati e una reale autorevolezza, i brand non entrano nemmeno nel radar dei modelli linguistici: nella tua esperienza, cosa distingue in modo chiaro un brand che viene selezionato dall’IA da uno che viene ignorato?
I brand che vengono selezionati dall’intelligenza artificiale sono quelli che possiedono un’associazione forte e consolidata con i prodotti o i servizi che offrono. Non si tratta di una novità: è sempre stato così. Quando le persone pensano agli aspirapolvere, pensano a marchi come Dyson, Shark o Henry Hoover. Questa associazione è stata costruita nel corso degli anni attraverso attività di marketing, dalle campagne above the line fino al digitale. I modelli linguistici non fanno altro che riflettere questa realtà.
Per questo, se da un lato è importante correggere gli aspetti tecnici e implementare dati strutturati, dall’altro i brand che vengono raccomandati sono, in sostanza, quelli che hanno già costruito una profonda associazione con il proprio prodotto. Se questa associazione è più debole rispetto a quella dei concorrenti, nel breve periodo si può anche cercare di spingere maggiormente su tattiche specifiche per i modelli linguistici, ma nel lungo termine questo, da solo, non sarà sufficiente.
Si parla molto di “essere presenti nelle risposte dell’intelligenza artificiale”, ma pochi collegano questa visibilità a risultati di business concreti: in che modo le aziende dovrebbero misurarne davvero l’impatto sui ricavi?
Esistono tre principali gruppi di KPI da monitorare.
- Il primo riguarda le metriche di visibilità e di citazione rilevate tramite uno strumento di monitoraggio dell’IA, come la share of voice o il tasso di citazione. Si tratta di indicatori importanti, ma vanno letti con cautela, considerando la natura non deterministica dei modelli linguistici, per cui i risultati possono variare da una query all’altra.
- Il secondo riguarda il traffico verso il sito web proveniente dalle citazioni dell’IA, cioè i click tracciabili generati dalle fonti citate. Esiste però anche un comportamento più difficile da monitorare: il caso in cui un utente scopra un brand tramite ChatGPT e successivamente lo cerchi direttamente su Google, rendendo l’attribuzione realmente complessa.
- Il terzo riguarda l’attribuzione delle conversioni. Nel B2B questo significa, per esempio, inserire nei moduli di lead generation un’opzione come “Come ci hai trovato? Tramite ChatGPT”, oltre a fare in modo che il team commerciale lo chieda direttamente ai prospect. Nell’e-commerce, invece, significa analizzare le sessioni provenienti da fonti IA attraverso modelli di attribuzione first-click, last-click e multi-touch.
La presenza di un brand nelle risposte generate dai modelli linguistici viene spesso descritta in termini di “share of voice”: come può essere monitorata davvero e quali segnali indicano che un marchio sta guadagnando terreno rispetto ai concorrenti?
La share of voice è una metrica utile, ma deve essere monitorata insieme ad altri indicatori, come i click e le conversioni attribuite alla ricerca tramite IA, e non considerata in modo isolato.
Un aspetto importante da tenere presente riguarda il rapporto tra il numero di concorrenti presenti in un determinato mercato e quanti di questi i modelli linguistici tendono effettivamente a raccomandare. Per esempio, se in una categoria esistono dieci player principali e ChatGPT di norma ne suggerisce cinque, la domanda fondamentale è una sola: il brand rientra in quei cinque?
È proprio qui, però, che la share of voice come metrica inizia a mostrare i suoi limiti. Se, ad esempio, ci sono soltanto cinque aziende che offrono un determinato servizio e ChatGPT tende a raccomandarne cinque, la visibilità apparirà naturalmente elevata, ma questo dato, di per sé, dice ben poco.
In questi casi è necessario andare oltre la semplice inclusione numerica e concentrarsi sulla posizione occupata all’interno della risposta, oltre che sul sentiment con cui il brand viene descritto. In altre parole, la share of voice deve essere interpretata con attenzione, sempre nel contesto del livello di competitività della categoria e del numero di marchi che i modelli linguistici tendono normalmente a far emergere.
Il mercato è pieno di promesse su come “entrare in ChatGPT”: quali sono gli errori più seri che vedi commettere alle aziende quando inseguono queste scorciatoie?
Ci sono un paio di errori che emergono in modo evidente. Il primo è l’ossessione per i file
LLMS.txt. Fino a quando nessuno dei principali modelli non confermerà formalmente di utilizzarli in modo attivo, il loro valore resta limitato, anche se sono semplici da creare e non comportano particolari controindicazioni. Anche la logica alla base non regge del tutto: l’idea che i modelli debbano fare affidamento su un file specifico creato dal proprietario del sito, quando potrebbero semplicemente eseguire il crawling di un sito ben strutturato, appare tecnicamente poco convincente. Se le informazioni sono già presenti nel sito, il crawler le troverà comunque. Basta pensare a quanto sia stato complesso, persino per Google, spingere i proprietari dei siti a creare filerobots.txte sitemap: incentivare la creazione di un ulteriore file separato rischia di aggiungere complessità senza reali benefici.Il secondo errore è l’uso eccessivo di articoli in stile listicle sul proprio sito, in particolare quelli in cui l’azienda si posiziona al primo posto accompagnando la classifica con commenti fortemente sbilanciati a favore del proprio brand rispetto ai concorrenti. Esistono già casi documentati in cui questa strategia si è rivelata controproducente. Poiché Google sta lavorando attivamente per penalizzare questo tipo di contenuti, è probabile che anche la loro influenza sui modelli linguistici segua la stessa direzione.
Detto questo, i contenuti comparativi possono funzionare bene in contesti specifici, soprattutto quando il confronto riguarda il proprio prodotto e un concorrente diretto molto vicino per caratteristiche, e l’obiettivo è realmente aiutare il cliente a prendere una decisione informata. In questi casi, l’elemento fondamentale è mantenere equilibrio e correttezza, basando il confronto su funzionalità e dati concreti, anziché su opinioni o giudizi di parte.
Con l’ingresso della pubblicità nelle esperienze chatbot, il confine tra risposta e promozione sta diventando sempre più sfumato: quanto potrebbe incidere questo, nel tempo, sulla fiducia degli utenti e sulla credibilità dei brand?
Lo si sta già vedendo… Anthropic ha posizionato l’esperienza senza pubblicità di Claude in diretto contrasto con la direzione presa da ChatGPT. Dal punto di vista della fiducia, l’impatto potrebbe essere rilevante. Le persone tendono a condividere con gli assistenti IA molte più informazioni personali e sensibili di quante ne abbiano mai condivise con un motore di ricerca tradizionale.
Per questo, quando iniziano a comparire annunci pubblicitari, oppure quando gli utenti iniziano a sospettare che le loro conversazioni possano essere utilizzate per profilarli a fini pubblicitari, l’erosione della fiducia rischia di essere più forte rispetto a quanto accaduto in passato con Google Search, che è sempre apparso più transazionale e meno personale.
L’unico elemento che può attenuare questo effetto è che gli utenti che vedranno concretamente gli annunci saranno con ogni probabilità quelli dei piani gratuiti, cioè persone generalmente meno coinvolte nella piattaforma e forse più abituate a esperienze supportate dalla pubblicità. Resta da capire se questo sarà sufficiente a limitare un danno reputazionale più ampio, ma è sicuramente una dinamica interessante da osservare.
La pubblicità all’interno di ChatGPT garantisce visibilità finché si paga, ma non lascia un valore duraturo: per te quando ha davvero senso investire negli annunci e quando, invece, rischia di trasformarsi in una dipendenza costosa?
È ancora presto per stabilire con certezza quale sarà il reale impatto di questi annunci, ma il modello mentale più corretto, al momento, è probabilmente quello di considerarli come un canale display: ampia copertura, notorietà del brand e possibilità di portare il messaggio davanti a un pubblico vasto. La precisione del targeting sarà verosimilmente limitata e il controllo sui prompt o sugli utenti accanto ai quali gli annunci compariranno sarà minimo, almeno in una fase iniziale.
Esiste poi un limite strutturale particolarmente rilevante per il marketing B2B: se il pubblico target è composto da professionisti che utilizzano seriamente strumenti di IA, è molto probabile che questi dispongano di account a pagamento, e quindi non vedranno affatto la pubblicità. In questo scenario, il canale rischia semplicemente di non raggiungere le persone giuste.
Più in generale, i brand sono già pienamente consapevoli dei rischi legati a un’eccessiva dipendenza da Google Ads, e questa lezione sta influenzando il modo in cui guardano alle nuove piattaforme. Pochi saranno disposti a costruire da zero un’altra dipendenza costosa. Se mai, questa preoccupazione sta accelerando la spinta verso la visibilità organica nella cosiddetta GEO, ossia la capacità di conquistare spazio nelle risposte generate dall’IA grazie ad autorevolezza reale e qualità dei contenuti, invece di pagare per una presenza che scompare nel momento in cui il budget si interrompe.
I dati mostrano che quando un sito perde visibilità su Google, tende a perdere rapidamente presenza anche nelle citazioni dei modelli linguistici: ti è capitato di osservare questo fenomeno e, nel caso, quali possono essere i primi segnali?
Sì, ho osservato anche io questo fenomeno. Su diversi clienti, mettendo a confronto i punteggi medi di citazione con il posizionamento organico medio su Google Search e Microsoft Bing, emerge una correlazione molto forte. Quando un sito si posiziona bene nei risultati organici, in genere anche i punteggi di citazione nelle risposte IA tendono a seguire la stessa traiettoria.
La sfumatura, però, riguarda il modo in cui questi segnali emergono. Quando un aggiornamento algoritmico di Google colpisce un sito, l’effetto è immediatamente visibile sull’intero set di keyword all’interno di Google Search Console. Il monitoraggio della visibilità nei modelli linguistici, invece, si basa di solito su un numero molto più ridotto di prompt, magari poche decine. Sebbene questi prompt siano correlati al ranking organico, non coincidono perfettamente con esso. Per questo la correlazione non sempre appare in modo così evidente, soprattutto se il set di prompt monitorati è troppo ristretto.
Quello che è stato osservato, tuttavia, è che i punteggi di citazione possono diminuire anche per ragioni completamente scollegate da Google, e questo apre una nuova categoria di rischio. In un caso specifico, si è registrato un calo significativo quando Perplexity ha modificato il numero di URL che mostrava per ciascun risultato. Il cliente compariva abitualmente con sei o sette URL per prompt; quando la piattaforma ha ridotto questo numero, il punteggio di citazione è crollato bruscamente. Non c’entravano né i contenuti né il ranking su Google: si è trattato esclusivamente di una decisione a livello di piattaforma. È proprio questo il punto a cui i brand devono prepararsi: cambiamenti algoritmici specifici dei modelli linguistici, indipendenti dalla ricerca tradizionale, che possono incidere in modo materiale sulla visibilità senza alcun preavviso.
Quando un brand non controlla in modo chiaro la propria narrazione, l’IA tende a colmare i vuoti utilizzando fonti di terze parti, spesso poco affidabili: cosa può fare un’azienda per evitare questo tipo di “narrazione alternativa”?
Esistono diversi approcci. Il primo consiste nell’assicurarsi che il proprio sito web offra contenuti completi, accurati e autorevoli, perché ogni vuoto informativo tende inevitabilmente a essere riempito da altri. Le persone si rivolgono a piattaforme come Reddit e simili proprio quando non riescono a trovare una risposta sul sito ufficiale. A quel punto qualcun altro fornisce una risposta, che potrebbe essere imprecisa o del tutto errata. Se quel contenuto ottiene visibilità e interazioni, finisce per diventare parte della narrazione che i modelli linguistici assorbono nel tempo. Anticipare questo rischio con contenuti proprietari, chiari e affidabili, rappresenta la difesa più diretta.
Il secondo aspetto riguarda i programmi di affiliazione, un tema spesso sottovalutato. Se un brand non dispone di un programma affiliati, editori terzi e siti di recensioni hanno pochi o nessun incentivo a includerlo nelle proprie raccomandazioni, perché non avrebbero alcun ritorno economico dal traffico inviato. Questo significa che proprio quelle fonti, spesso citate dai modelli linguistici, finiranno per escludere il marchio dalla conversazione.
Di conseguenza, la strategia di affiliazione non riguarda più soltanto la generazione di conversioni dirette. Oggi rappresenta anche una leva strategica per influenzare quali fonti parlano del brand, in che modo lo descrivono e, in ultima analisi, se il marchio riuscirà oppure no a comparire nelle risposte generate dall’intelligenza artificiale.
I modelli linguistici possono assorbire e ripetere contenuti falsi o diffamatori presentandoli come affidabili: quanto è reale oggi il rischio di attacchi reputazionali attraverso la Negative GEO e come possono essere individuati in anticipo?
Si tratta di un tema realmente complesso. Sul fronte dell’individuazione esistono strumenti che possono aiutare, come layer di fact-checking in grado di verificare le affermazioni contenute nelle risposte generate dai modelli linguistici sul brand. Questo consente di intercettare e dare priorità ai prompt in cui emergono inesattezze, offrendo una visione più chiara di dove la narrazione stia iniziando a deviare.
Il punto, però, torna ancora una volta ai contenuti. Se i modelli cercano informazioni su un marchio e non le trovano sulle proprietà ufficiali dell’azienda, è inevitabile che attingano a ciò che è disponibile altrove. La difesa resta quindi la stessa: presidiare in modo proattivo la propria narrazione con contenuti first-party accurati, completi e autorevoli.
La verità più difficile riguarda i prompt che cercano deliberatamente elementi negativi, come “quali sono i punti deboli del prodotto X” oppure “quali sono le lamentele sul brand Y”. In questi casi esiste un margine limitato di intervento, perché il modello sta cercando in modo esplicito contenuti critici. La risposta più onesta è quasi brutale: non bisogna avere un cattivo prodotto. È facile dirlo, molto meno metterlo in pratica, perché i miglioramenti di prodotto e di processo richiedono tempo.
Nel frattempo, l’approccio più efficace consiste nel fare in modo che eventuali critiche legittime siano compensate da un volume molto più ampio di contenuti accurati, autorevoli e positivi, così che, anche quando il modello va alla ricerca di aspetti negativi, lo faccia all’interno di una base informativa solida e ben strutturata.
Il traffico proveniente dai modelli linguistici è ancora limitato nei volumi, ma tende a convertire molto più di altri canali: perché questi utenti sono così pronti ad agire?
È un fenomeno molto interessante e probabilmente dipende da diversi fattori.
Il primo è che gli utenti investono più impegno nella costruzione del prompt rispetto a quanto abbiano mai fatto con una normale query di ricerca. Questo sforzo aggiuntivo genera una sorta di senso di proprietà rispetto al risultato: c’è quasi una soddisfazione nell’aver formulato la domanda giusta e nell’essere stati indirizzati verso qualcosa di realmente pertinente. Questo atteggiamento si trasferisce poi nella sessione sul sito, influenzando il livello di coinvolgimento e la propensione all’azione.
Il secondo fattore, forse ancora più importante, è che i modelli linguistici sembrano fare un lavoro migliore nel collegare l’utente a ciò di cui ha realmente bisogno. Il vecchio comportamento di aprire i primi tre risultati organici, scansionarli rapidamente, tornare indietro e affinare la ricerca viene in larga parte compresso o eliminato. Quando l’utente arriva sul sito web, una buona parte del processo di scoperta e selezione è già stata completata. In altre parole, giunge in una fase più avanzata del percorso decisionale.
Il terzo elemento, oggi più difficile da misurare, riguarda il ruolo della memoria e della personalizzazione. Se i modelli linguistici stanno utilizzando cronologia, preferenze e contesto dell’utente per modellare le raccomandazioni, questo aiuterebbe a spiegare perché il traffico risultante sia così ben qualificato. Non esiste ancora piena visibilità su quanto questo meccanismo venga applicato e con quale coerenza, ma se il livello di personalizzazione è elevato, rappresenta una parte significativa della spiegazione.
YouTube, Reddit e le fonti basate sull’esperienza diretta stanno diventando sempre più centrali nelle risposte dei modelli linguistici: da questa prospettiva, come sta cambiando il lavoro SEO per i brand che vogliono intercettare traffico ad alto valore?
Sul fronte di YouTube, il lavoro SEO sta avvicinando sempre di più i professionisti della search al processo stesso di produzione video. Oggi il brief nasce sempre più spesso dalla ricerca: il video viene realizzato perché risponde a una query specifica che emerge sia nella ricerca tradizionale sia nelle risposte dei modelli linguistici. Si tratta di un cambiamento importante rispetto al modo in cui molte aziende hanno storicamente considerato YouTube, cioè principalmente come canale di brand awareness o di presentazione del prodotto. Sta cambiando, in sostanza, l’intento che guida la creazione del contenuto.
Per quanto riguarda Reddit, esiste un rischio molto concreto: quello di fare ciò che talvolta la SEO tende a fare, ossia individuare un canale che funziona e progressivamente comprometterlo con un eccesso di ottimizzazione. Se i team iniziano a popolare le discussioni con contenuti favorevoli al brand pensati per influenzare i modelli linguistici, la community se ne accorge, la qualità della conversazione si abbassa e l’intero segnale perde valore.
L’approccio più intelligente è considerare Reddit come uno strumento di osservazione, più che come un canale di distribuzione. Occorre ascoltare le conversazioni che si sviluppano nelle community rilevanti, comprendere quali siano le domande autentiche poste dagli utenti e utilizzare queste informazioni per costruire contenuti sul proprio sito web. In questo senso, Reddit dovrebbe orientare la strategia editoriale, non diventare uno spazio da manipolare. Un suggerimento utile è utilizzare strumenti come Reddit Pro e Reddit Answers per monitorare meglio le conversazioni e intercettare insight di valore.
Per una parte più ristretta di brand che possiedono già un subreddit consolidato, esiste certamente uno spazio legittimo di intervento, ma questo dovrebbe collocarsi molto più vicino al community management e al customer care che non all’influenza artificiale dei contenuti. Nel momento in cui il presidio appare chiaramente costruito a tavolino, perde immediatamente efficacia. La SEO ha spesso la tendenza a sovra-ottimizzare ciò che funziona fino a renderlo irrilevante: questo è uno di quei contesti in cui la misura e la capacità di trattenersi faranno la differenza.
Emergi nelle risposte dell’IA senza dipendere dagli annunci
Parlare con John e condividere con lui opinioni e punti di vista è sempre un’esperienza estremamente utile.
Il dibattito sull’AI search è pieno di hype, di promesse facili e di tattiche che suonano bene nelle presentazioni ma reggono pochissimo alla prova della realtà. Quello che emerge con chiarezza da questa conversazione è invece qualcosa di molto più solido e, per certi versi, più rassicurante di quanto ci si potrebbe aspettare.
I fondamentali contano ancora. Anzi, contano di più.
I modelli linguistici non stanno reinventando le regole della visibilità: le stanno amplificando. Chi ha costruito nel tempo una reale associazione tra il proprio brand e un prodotto o servizio, attraverso contenuti autorevoli, presenza coerente, reputazione guadagnata, è già in una posizione di vantaggio.
Chi ha invece inseguito scorciatoie e ottimizzazioni di superficie si ritrova oggi esattamente dove era ieri: invisibile.
Questo non significa che non ci sia nulla di nuovo da imparare. Significa che il punto di partenza resta sempre lo stesso: essere davvero utili, davvero rilevanti, davvero affidabili. E poi lavorare per farlo emergere anche nei nuovi contesti.
Ciò che trovo particolarmente prezioso nell’approccio di John è la sua capacità di distinguere tra ciò che è urgente e ciò che è importante. I file llms.txt, i listicle autoreferenziali, le tattiche di last minute: utili, forse, ai margini, ma mai sostitutivi di una strategia di contenuto seria e di una presenza coerente.
C’è poi un tema che mi ha colpito più degli altri: quello della narrazione non presidiata. Ogni vuoto informativo che un brand lascia aperto viene riempito da qualcun altro, da Reddit, da recensioni di terze parti, da contenuti imprecisi o di parte.
E quei contenuti diventano, nel tempo, parte di ciò che i modelli linguistici assorbono e restituiscono. Presidiare la propria narrazione con contenuti first-party accurati e completi non è più solo una buona pratica SEO: è una forma di difesa reputazionale attiva.
Infine, la questione degli annunci su ChatGPT. Personalmente, resto convinto che il vero vantaggio competitivo nei prossimi anni non verrà da chi spende di più in visibilità a pagamento sui canali IA, ma da chi riesce a costruire autorevolezza organica in modo genuino e duraturo.
La pubblicità compra presenza.
La fiducia, no.
Un ringraziamento sincero a John per la chiarezza e la precisione con cui ha condiviso la sua prospettiva: concreta, priva di retorica, e, soprattutto, immediatamente applicabile. Esattamente il tipo di conversazione per cui esiste SEO Confidential.
Se hai trovato utile questa puntata, condividila con chi sta affrontando le stesse sfide. E se c’è un argomento che vorresti vedere affrontato nel prossimo episodio, scrivimi: i temi migliori nascono spesso da chi legge.
Al prossimo appuntamento con SEO Confidential. 👋
#avantitutta

Più che influenzare un’IA, mi sembra di sussurrare segreti all’orecchio di un golem di silicio che potrebbe schiacciarci o costruirci un trono. Stiamo delegando il futuro a un calcolo probabilistico, una specie di roulette russa giocata con le nostre conversioni.
Sabrina, il suo golem non è una creatura mitologica, ma l’esattore di un dazio digitale il cui beneficiario è sempre il banco. A noi resta solo da calcolare l’entità della perdita.
Più che influenzare, mi pare di pagare il pizzo a una macchina senza volto.
Parlate di “influenzare”. La verità è che deleghiamo il nostro fatturato a un algoritmo opaco. Alla fine della fiera, a chi giova tutto questo?
Il nostro compito è diventato sussurrare lusinghe a una macchina sperando ci ascolti.
@Tommaso Sanna, altro che lusinghe. Quella che tu chiami seduzione è solo un’asta al buio per comprare la benevolenza di chi tiene i fili della macchina. Noi offriamo dati, sperando di non essere la puntata più bassa del tavolo.
Mamma mia, che discorsi. Il punto non è “influenzare” l’IA con le chiacchiere. Devi darle in pasto dati puliti e fonti autorevoli. Il resto è fuffa per vendere corsi. O ci sei o sei fuori.
State discutendo del colore delle tende, quando nessuno ha ancora gettato le fondamenta dei dati.
Se la macchina deve imparare, tanto vale fornirle dei riassunti già pronti, ripetendoli ovunque con coerenza quasi maniacale, così che per lei diventi la scelta più semplice. Alla fine è solo efficienza.
Insegnare la propria verità all’IA. Certo. Come se la verità non fosse semplicemente la narrazione di chi può permettersi l’eco più costoso.
La narrazione non la controllerà chi è più autorevole, ma chi comprerà l’accesso privilegiato ai dati di addestramento. Il resto è fuffa per illusi.
Più che istruire una macchina, dovremo diventare un’eco. Un sussurro continuo che lei, alla fine, scambierà per un suo pensiero. Che lavoro estenuante.
Dovremo insegnare la nostra verità al nuovo portiere, sperando non ascolti quella degli altri.
Quindi il mio link di affiliazione non lo vedrà più nessuno? Un click valeva una commissione. Ora il valore lo decide una macchina. Rifiuto questo sistema.
@Eva Testa Lamentarsi è inutile. Bisogna solo capire come vuole i soldi. O no?
@Marco Basile Il denaro è semplice, ma convincere una macchina della nostra onestà è un’altra faccenda.
Basta pagare il bot, no? Meno sbatti per tutti. Problema risolto.
Un tempo stringevamo mani; ora supplichiamo un’eco di concederci un’udienza.
Meno narrazione e più realismo: si tratta di ingegneria dei prompt su larga scala o, più prosaicamente, di pagare per essere la fonte autorevole. Tutto questo parlare di “influenzare” è solo il marketing che maschera la nuova frontiera del product placement.
Paolo Pugliese, il suo realismo è disarmante. Il mio lavoro si è trasformato dal creare fiducia al tentare di corrompere un oracolo digitale imprevedibile.
Abbiamo eretto imperi narrativi. Ora supplichiamo l’eco di una grotta sintetica di nominarci correttamente. Che gloriosa involuzione per noi cantastorie del marketing.
Abbiamo costruito cattedrali di brand per farle descrivere da un citofono automatico senza anima.
Parlate di narrazione, un bel ricamo sul nulla. Ma l’IA non ha un carrello della spesa. È un vicolo cieco per le conversioni.
Abbiamo costruito brand con le nostre mani per poi delegare la reputazione a un chatbot.
Abbiamo delegato la reputazione a un oracolo di silicio. Scelta saggia, come al solito.
@Giovanni Battaglia Abbiamo ceduto il controllo della porta di casa, ora ci lamentiamo dei ladri.
Il problema non è l’IA, ma la nostra perenne dipendenza da un unico cancello. Sostituiamo il padrone di casa, ma l’affitto va pagato comunque.
Pensare che sia una scatola nera è ingenuo. Qualcuno scrive le regole e conosce i punti deboli del sistema. La vera partita si gioca nel capire chi e come, non se sia possibile farlo.
Stiamo consegnando le chiavi del nostro traffico a una scatola nera che riscrive le regole, mentre le nostre conversioni evaporano. Come si pianifica così?
Greta, non si pianifica. Game over per i vecchi schemi. Chi parla di controllo vende fuffa. Le chiavi le abbiamo già date via, è tardi per piangere. Ora si sta in trincea e si reagisce. Non c’è un piano, c’è solo la prossima mossa.
Parlare di “influenzare” l’IA è come voler ammaestrare il vento. Si rincorre un algoritmo opaco, di nuovo, dimenticando che la vera fiducia del cliente si costruisce altrove, non delegandola a una macchina.
Più che influenzare, si tratta di addestrare il modello con i propri dati, trasformandolo in un nostro venditore inconsapevole. Diventare l’unica fonte significa non avere concorrenti nella risposta, non vi pare?
Venditore inconsapevole. Perfetto. Il prossimo passo sono le elezioni, giusto?
I link blu erano una prigione. Ora i robot ci danno le risposte. Perfetto. Bisogna solo diventare la voce nella loro testa. Il controllo si prende, non si chiede.
Eva, diventi la sua voce se i dati con cui lo nutri sono i tuoi.
Il gioco è solo diventato più costoso e oscuro, con l’illusione di una risposta oggettiva. Quale sarà la prossima frontiera del servilismo digitale?
Alberto, si paga per diventare una nota a piè di pagina di un robot. Progresso.