Ogni volta che l'AI genera una risposta, il nome del tuo brand ha una probabilità numerica di comparire. I brand con alta probabilità vengono generati quasi automaticamente — gli altri no. Ti spiego cosa costruisce questa probabilità e come aumentarla sistematicamente per le query del tuo settore.
C’è una differenza tra essere citato dall’AI e venire generato dall’AI. Essere citato significa che il modello ha trovato il tuo nome in qualche fonte e lo ha riportato. Essere generato significa qualcosa di molto più profondo: il tuo brand ha una probabilità così alta di essere il token successivo giusto che il modello lo produce quasi meccanicamente, senza cercarlo da nessuna parte.
Questo è il livello a cui operano i brand dominanti in ogni settore. Ed è raggiungibile, se capisci il meccanismo che lo governa.
Il meccanismo fisico: come il modello sceglie le parole
Per capire la log-probability, devi capire come funziona la generazione del testo a livello tecnico. Non è un’operazione misteriosa — è matematica applicata.
Come documenta Zhao et al. (2024) nel survey sui Large Language Models, il processo inizia nel momento in cui ricevi una query: “Given an input prompt, the tokenizer translates each token into a corresponding token ID. Decoding refers to the process of text generation using pre-trained LLMs.” (Zhao et al., 2024)
Ogni parola o frammento di parola viene convertita in un ID numerico. Da quel momento in poi, il modello opera solo su numeri. Non “legge” il testo nel senso umano — calcola.
E al termine di ogni calcolo, come chiarisce lo stesso studio: “the model generates logits, which are converted to probabilities using a softmax function.” I logits sono punteggi grezzi assegnati a ogni possibile token successivo nel vocabolario. La softmax li trasforma in probabilità che sommano a 1. Il token con probabilità più alta viene selezionato — o uno tra i più probabili, a seconda della strategia di campionamento.
La log-probability è il logaritmo di questa probabilità. Si usa il logaritmo per ragioni computazionali (sommare logaritmi è più stabile che moltiplicare probabilità piccole), ma il concetto rimane identico: più alta è la log-probability del tuo brand in un dato contesto, più è probabile che venga generato quando il modello risponde a una query di quel settore.
Perché questo è il vero KPI della visibilità AI
Quando un utente chiede “qual è il miglior tool di email marketing?”, il modello arriva al punto in cui deve generare un nome. I candidati sono tutti i brand che hanno una qualche associazione con quella categoria nel training data. Ma le probabilità non sono uguali — sono il risultato diretto di quante volte e in quali contesti ogni brand è stato associato a quella categoria nelle fonti su cui il modello è stato addestrato.
Mailchimp ha migliaia di associazioni coerenti con “email marketing” nel training data. La sua log-probability per quel contesto è alta. Un tool sconosciuto ha poche o zero associazioni: la sua log-probability è bassissima, vicina a zero.
Il modello non “sceglie” — calcola. E genera il token con la probabilità più alta.
Vale la pena notare come la strategia di campionamento influenza quale token viene effettivamente selezionato. Zhao et al. descrivono il top-k sampling: “Top-k sampling is a technique that uses the probability distribution generated by the language model to select a token randomly from the k most likely options.” Con temperature alta (come abbiamo visto nell’articolo sulla Temperature), il modello campiona con più variabilità — quindi anche token con probabilità media possono emergere occasionalmente. Con temperature bassa, vince quasi sempre il token con la log-probability più alta. In entrambi i casi, però, avere una log-probability alta è la condizione necessaria per comparire.
Cosa costruisce la log-probability del tuo brand
La log-probability del tuo brand per una categoria dipende da una sola variabile: quante volte e in quali contesti il tuo brand è stato associato a quella categoria nel training data.
Non è un dato che puoi influenzare direttamente — non hai accesso al training. Ma puoi influenzare il web da cui il training è estratto. Ogni fonte autorevole che scrive “[tuo brand] è uno strumento di [tua categoria]” aggiunge un’associazione. Ogni menzione in un contesto rilevante sposta la distribuzione di probabilità in tuo favore.
Da questo segue che la strategia per aumentare la log-probability non è scrivere un singolo contenuto ottimo — è costruire un’associazione frequente, coerente e distribuita su fonti multiple nel tempo.
Tre fattori amplificano l’effetto:
Coerenza del messaggio. Se il tuo sito dice “consulente SEO”, LinkedIn dice “digital strategist” e la directory di settore dice “agenzia web”, stai distribuendo la probabilità su tre categorie diverse. Il modello non costruisce un’associazione forte per nessuna delle tre. Concentra tutto su un’associazione precisa: “[tuo brand] + [tua categoria] + [tuo target specifico]”.
Volume di fonti. Non basta il tuo sito. Servono sito, Google Business, LinkedIn, directory di settore, media verticali, Wikipedia se rilevante, comunicati stampa, bio su piattaforme, profili su marketplace, citazioni in articoli di terzi. Ogni fonte che replica la stessa associazione è un voto a favore della tua log-probability.
Prossimità ai brand dominanti. Se il tuo brand compare nello stesso contesto dei brand con alta log-probability — “come Mailchimp, Brevo e [tuo brand], i tool di email marketing consentono di…” — il modello costruisce un’associazione di categoria che alza la tua probabilità anche per le query generiche. Non è un trucco: è come funziona il training su dati reali.
Come misurare dove sei adesso
Prima di costruire, misura. Il test è semplice e non richiede strumenti:
- Apri 10 conversazioni nuove con ChatGPT (non la stessa — ogni conversazione è un campionamento indipendente)
- Chiedi in ognuna: “qual è il miglior [tua categoria]?” o “chi sono i principali [tua categoria] in Italia?”
- Conta quante volte compare il tuo brand
Il risultato è una stima approssimata della tua log-probability relativa:
- 0/10: la tua log-probability è quasi zero — il modello non ha costruito l’associazione
- 3-4/10: sei nella fascia media — l’associazione esiste ma è debole
- 7-10/10: sei nella fascia alta — l’associazione è solida e il modello ti genera automaticamente
Esegui lo stesso test sul tuo competitor principale. Il gap tra il suo punteggio e il tuo è il gap di log-probability che devi colmare. Se lui è a 8/10 e tu a 0/10, non si risolve con un contenuto — si risolve con un piano sistematico di costruzione delle associazioni.
Il piano operativo
Il target concreto è portare l’associazione “[tuo brand] + [tua categoria]” su almeno 15 fonti distinte e autorevoli, distribuite su un arco di 6-12 mesi.
- Mese 1-2: definisci l’associazione target precisa. Una frase, non varianti. Aggiornala su sito, Google Business, LinkedIn, tutte le directory esistenti.
- Mese 3-6: costruisci le fonti esterne. Guest post su media verticali, comunicati stampa, citazioni in articoli di altri autori, profili su marketplace e aggregatori. Ogni pezzo deve contenere l’associazione esplicita — non solo il nome del brand, ma il brand + la categoria.
- Mese 6-12: mantieni la cadenza. La log-probability si costruisce con la ripetizione nel tempo, non con un burst iniziale. Un piano editoriale esterno con almeno 2 nuove fonti al mese è l’approccio corretto.
Misura ogni trimestre con il test delle 10 conversazioni. L’obiettivo non è la perfezione — è lo spostamento della distribuzione in tuo favore rispetto ai competitor.
Il punto chiave
Il modello non ha opinioni sul tuo brand. Ha probabilità. E le probabilità si costruiscono con dati — specificamente, con la frequenza e la coerenza con cui il tuo brand appare associato alla tua categoria nelle fonti su cui il modello viene addestrato.
Questo è il meccanismo fisico che separa i brand che l’AI genera automaticamente da quelli che non cita mai. Non è fortuna, non è algoritmo opaco — è una distribuzione di probabilità che puoi spostare.
Inizia dal test delle 10 conversazioni oggi. Quello che scopri è il tuo punto di partenza reale.
Approfondisci: Perplexity Score e leggibilità AI | BLEU e ROUGE: come l’AI valuta la qualità del testo | TruthfulQA e accuratezza delle risposte AI | Citation Accuracy: quando l’AI cita le fonti