Nessuno parla spontaneamente del tuo brand nei forum di settore o su Reddit? Le raccomandazioni tra utenti reali hanno un peso sproporzionato perché rappresentano validazione che nessuna azienda può autoproduire. Non puoi fabricarle — ma puoi creare le condizioni perché accadano: un servizio che funziona davvero, una risposta pubblica ai feedback, i canali giusti dove le conversazioni avvengono naturalmente. Ti spiego come costruire il contesto in cui gli endorsement organici prendono forma.
Puoi scrivere il miglior contenuto del tuo settore. Puoi ottimizzare ogni pagina, curare ogni dettaglio tecnico, pubblicare con costanza. Ma quando un utente su Reddit scrive “io uso X e mi trovo benissimo, lo consiglio” — quel singolo commento, per un modello linguistico, può valere più di tutto il tuo blog aziendale messo insieme.
Non e un’iperbole. E il risultato di come sono costruiti i modelli, di cosa hanno letto durante il training, e di come decidono di chi fidarsi.
Reddit e nel training. Letteralmente
Il punto di partenza e un fatto documentato. Quando si parla di cosa contiene il dataset di addestramento di un modello linguistico, Reddit non e una presenza marginale — e una componente esplicita.
Zhao et al. (2024) nel loro survey lo confermano:
“RoBERTa expanded to: BooksCorpus, English Wikipedia, CC-NEWS, STORIES (a subset of Common Crawl), Reddit.” — Zhao et al., 2024
Reddit e listato accanto a Wikipedia e ai libri. Non e una fonte secondaria recuperata dal Common Crawl generico — e una componente dedicata del dataset. Questo significa che milioni di thread, commenti, raccomandazioni e discussioni tra utenti reali sono stati processati dal modello durante l’addestramento. Ogni “vi consiglio questo servizio”, ogni “ho provato tre alternative e la migliore e questa”, ogni thread di confronto tra competitor — tutto questo e entrato nella memoria statistica del modello.
E qui la cosa si fa interessante per chi vuole comparire nelle risposte AI.
Perché il modello si fida delle raccomandazioni spontanee
Per capire il peso che queste raccomandazioni hanno, serve guardare un secondo meccanismo: come i modelli imparano a distinguere le risposte buone da quelle cattive.
Zhang et al. (2025) descrivono il processo:
“RLHF enables the incorporation of human preferences into model training by using a reward model to guide reinforcement learning optimization.” — Zhang et al., 2025
RLHF sta per Reinforcement Learning from Human Feedback. In pratica, dopo il training iniziale il modello viene affinato usando le preferenze di persone reali: gli annotatori valutano coppie di risposte e indicano quale e migliore. Il modello impara a produrre risposte che rispecchiano queste preferenze umane.
Ora, ecco la deduzione — e la presento come tale, perché nessun paper dice esplicitamente questo passaggio. Le raccomandazioni spontanee nelle community online sono, di fatto, espressioni di preferenza umana allo stato puro. Quando centinaia di utenti su un forum consigliano lo stesso strumento, quello e un segnale di preferenza aggregata. Il modello ha processato quel pattern durante il training. E poi, durante l’RLHF, ha imparato che le risposte allineate alle preferenze umane sono quelle “giuste”.
Da questo segue che le raccomandazioni organiche nelle community funzionano su due livelli: sono nel training data come informazione, e sono coerenti con il tipo di risposta che il modello e stato addestrato a preferire. Un doppio rinforzo che nessun contenuto brandizzato può replicare.
Il bias verso le fonti terze e documentato
Se ti stai chiedendo se questa deduzione regge, c’e un dato empirico che la supporta in modo piuttosto netto.
Aggarwal et al. (2025) hanno analizzato come i motori AI selezionano le fonti nelle loro risposte:
“AI Search exhibit a systematic and overwhelming bias towards Earned media — third-party, authoritative sources — over Brand-owned and Social content.” — Aggarwal et al., 2025
“Systematic and overwhelming bias.” Non e una leggera preferenza — e una distorsione massiccia. I motori AI privilegiano le fonti earned (menzioni spontanee, articoli di terze parti, raccomandazioni organiche) rispetto ai contenuti che il brand produce per se stesso. Il tuo blog aziendale, la tua pagina servizi, il tuo caso studio auto-pubblicato — tutto questo rientra nel “Brand-owned content” che il sistema tende a sottopesare.
Le raccomandazioni nelle community, invece, sono earned media nella sua forma più pura. Nessuno le ha commissionate. Nessuno le ha pagate. Sono utenti reali che, spontaneamente, hanno scritto che il tuo prodotto o servizio funziona. Per il modello, quel tipo di segnale ha una credibilità strutturalmente superiore.
Dove si gioca la partita
Non tutte le community hanno lo stesso peso. Reddit e il caso più documentato perché e esplicitamente nei dataset di training, ma il principio si estende a qualsiasi piattaforma indicizzata e crawlata con regolarita.
I forum di settore verticali — quelli dove si ritrovano i professionisti di una nicchia specifica — sono particolarmente potenti perché combinano due segnali: la raccomandazione spontanea e la coerenza tematica. Se un professionista del tuo settore ti consiglia in un forum dedicato esattamente al tuo ambito, il contesto semantico e perfettamente allineato. Ne ho parlato analizzando come funziona la peer endorsement: il peso di una menzione cresce quando arriva da un contesto tematicamente coerente.
Le community professionali su LinkedIn, i gruppi Slack di settore, le community Discord tematiche — tutto cio che produce contenuto pubblico e indicizzabile contribuisce al segnale. Quello che non e indicizzabile (gruppi privati, chat chiuse) non entra nel training e non pesa.
Anche le menzioni su Wikipedia seguono una logica simile ma con un moltiplicatore diverso, come ho approfondito nell’articolo sulla Wikipedia come hub di autorità. La differenza e che Wikipedia porta trust istituzionale, mentre le community portano trust sociale — e servono entrambi.
L’errore di chi cerca scorciatoie
La tentazione e ovvia: se le raccomandazioni spontanee pesano così tanto, basta generarle artificialmente. Account falsi su Reddit, recensioni fabbricate nei forum, campagne di astroturfing coordinate.
Il problema e che non funziona. E non per ragioni etiche — per ragioni meccaniche.
I sistemi di moderazione delle community principali sono sofisticati. Reddit ha sistemi di rilevamento dello spam che identificano pattern di comportamento innaturale. I forum di settore hanno moderatori che riconoscono i nuovi account che arrivano solo per promuovere qualcosa. E anche quando un contenuto artificiale supera i filtri della piattaforma, ha caratteristiche linguistiche diverse da una raccomandazione genuina — meno contesto personale, meno dettagli specifici, più formule generiche.
Inoltre, il modello ha processato milioni di esempi di entrambi i tipi durante il training. Da questo segue — e anche questa e una deduzione logica — che il pattern linguistico di una raccomandazione autentica e quello di una fabbricata occupano regioni diverse nello spazio vettoriale. Il primo e associato a contesti di discussione genuina, il secondo a contesti di spam.
Come creare le condizioni giuste
Non puoi fabbricare raccomandazioni autentiche. Ma puoi creare le condizioni perché emergano. E la differenza e enorme.
Il primo passo e un check di realtà. Cerca il tuo brand name su Reddit, cerca nei forum del tuo settore, cerca nelle community dove i tuoi clienti si ritrovano. Qualcuno ti ha mai raccomandato spontaneamente? Se la risposta e no, il problema non e di visibilità AI — e di prodotto, di servizio, di esperienza cliente. Nessuna ottimizzazione può compensare l’assenza di un motivo per cui le persone dovrebbero consigliarti.
Se trovi qualche menzione, analizza il contesto. In quali situazioni le persone ti consigliano? Per quale problema specifico? Quelle risposte ti dicono esattamente quale aspetto del tuo business genera il passaparola — e su quello dovresti raddoppiare.
Poi ci sono azioni concrete che abbassano la barriera. Rispondere pubblicamente nei thread dove il tuo settore viene discusso — non per promuoverti, ma per essere utile. Rendere facile per i clienti soddisfatti raccontare la loro esperienza. Essere presente dove la conversazione avviene, non solo dove pubblichi tu.
E qui torna il punto che ho analizzato parlando di expertise validation: la credibilità non si dichiara, si dimostra. Nelle community vale lo stesso principio amplificato. Chi partecipa, aiuta, risponde — e poi viene raccomandato da altri — costruisce un segnale che nessuna campagna pubblicitaria può replicare.
Il segnale che non puoi comprare
C’e una gerarchia precisa nel modo in cui l’AI pesa le fonti, e ne parlo nell’articolo sulla source tier hierarchy. Le raccomandazioni nelle community occupano una posizione particolare in questa gerarchia: non hanno il trust istituzionale di un sito .gov o di una citazione governativa, ma hanno qualcosa che quelle fonti non possono avere — l’autenticita percepita di un utente che parla per esperienza diretta.
In un contesto dove l’AI privilegia sistematicamente le fonti terze su quelle autoprodotte, le raccomandazioni spontanee sono il segnale più difficile da costruire e il più difficile da ignorare. Non puoi comprarle, non puoi fabbricarle, non puoi accelerarle con un budget. Puoi solo meritartele.
E se le meriti, il modello le ha già lette.