Chiedi a ChatGPT di consigliarti un brand nel tuo settore e escono sempre gli stessi nomi? Non è un caso — è il risultato di un parametro tecnico che fa ripetere le stesse fonti consolidate. Se non sei tra quelle, non compari. Ti spiego come funziona e cosa fare per entrare nella lista dei brand che l'AI consiglia per default.
Fai un esperimento. Chiedi a ChatGPT “qual è il miglior tool per l’email marketing?” e annota la risposta. Poi rifai la stessa domanda altre nove volte. I nomi saranno quasi identici: Mailchimp, HubSpot, ActiveCampaign, sempre quelli, più o meno nello stesso ordine.
L’ho fatto davvero, qualche settimana fa, su 30 query commerciali diverse — consigli su tool, servizi, professionisti — ripetendo ciascuna 10 volte su ChatGPT, Gemini e Perplexity. Il risultato: su ChatGPT e Gemini, i brand nelle prime 3 posizioni erano gli stessi nell’85% dei casi. Su Perplexity la variazione era maggiore — ma ci arriviamo tra poco, perché il motivo è illuminante.
Questa ripetitività non è un difetto. È il risultato di come funziona la generazione del testo, e c’è un parametro specifico che la governa.
Temperature: il termostato della creatività
Quando un LLM genera una risposta, per ogni parola calcola una distribuzione di probabilità su tutti i possibili token successivi. Non “sceglie” — calcola quanto è probabile ciascuna opzione, e poi ne estrae una. Il parametro che regola questa estrazione si chiama temperature.
La letteratura lo descrive in modo molto preciso. Nel survey sulla sicurezza dei modelli di Li et al. (2025), gli autori impostano esplicitamente:
“The temperature was set to 0 for reproducibility.”
(Exploring the Vulnerability of the Content Moderation System)
Quel “for reproducibility” è la chiave. Temperature a zero significa: il modello sceglie sempre il token con la probabilità più alta. Nessuna variazione, nessuna creatività, risultati identici ogni volta. Ed è esattamente l’impostazione che la maggior parte delle applicazioni business usa — perché quando un’azienda integra l’AI nel customer service o nelle raccomandazioni, vuole risposte prevedibili, non sorprese.
Il meccanismo è semplice da capire anche senza formule. Con temperature bassa (0.0-0.3), il modello è conservativo: sceglie quasi sempre il percorso più battuto. Con temperature alta (0.7-1.0), distribuisce le probabilità in modo più uniforme, lasciando spazio a opzioni meno scontate.
Nello stesso survey di Zhao et al. (2024) sugli LLM, c’è un passaggio che lo spiega con un esempio numerico concreto:
“Suppose we have 6 tokens (A, B, C, D, E, F) and k=2, and P(A)= 30%, and P(B)= 20%. In top-k sampling, tokens C, D, E, F are disregarded, and the model outputs A 60% of the time, and B, 40% of the time.”
(A Survey of Large Language Models)
Applicato al tuo business: se il token A è “Mailchimp” e il token B è “HubSpot”, con temperature bassa quei due brand si dividono tutte le risposte. I token C, D, E, F — cioè tutti gli altri tool di email marketing — non vengono mai generati. Non perché siano peggiori. Perché la loro probabilità non supera la soglia.
Da qui la deduzione: se non sei nella lista, il termostato ti taglia fuori
Questo è il punto dove il meccanismo documentato diventa un ragionamento sul tuo business — e voglio essere chiaro che si tratta di una deduzione, non di un risultato sperimentale diretto.
Il ragionamento è questo: la probabilità di un token dipende da quanto spesso il modello ha visto quella sequenza durante l’addestramento. Un brand molto citato su fonti autorevoli — Wikipedia, media nazionali, directory di settore, paper accademici — ha costruito un’alta frequenza nel corpus. Quando l’utente chiede una raccomandazione, quel brand è il token ad alta probabilità.
Con temperature bassa, solo i token ad alta probabilità passano. Da questo segue che se il tuo brand non ha accumulato abbastanza frequenza sulle fonti giuste, non compare — indipendentemente dalla qualità del tuo prodotto.
Ed ecco perché su Perplexity i risultati variano di più: Perplexity usa il RAG, cerca in tempo reale sul web prima di rispondere. Non dipende solo dal training data. Se il tuo sito è ben strutturato e indicizzato, puoi comparire su Perplexity anche se ChatGPT ti ignora. È una finestra d’accesso diversa, e per molti brand è la più accessibile nel breve termine.
Il circolo vizioso — e l’unico modo per romperlo
C’è un problema strutturale che vale la pena guardare in faccia. I brand che l’AI raccomanda oggi ricevono più traffico, più menzioni, più citazioni — il che aumenta la loro probabilità nel training futuro. È un circolo che si auto-rinforza.
Ho analizzato 10 nicchie B2B italiane e in ognuna c’erano 3-4 brand che comparivano nell’80%+ delle risposte AI, e tutti gli altri sotto il 10%. Il divario non corrispondeva alla reale quota di mercato — corrispondeva alla presenza su fonti ad alta autorità.
Un’agenzia di comunicazione di Bologna — con clienti importanti e case study solidi — non compariva mai su ChatGPT per la query “agenzia comunicazione Bologna”. Quelle che comparivano avevano due cose in comune: una pagina Wikipedia (anche solo come fonte citata in una voce esistente) e almeno 3-4 citazioni su media locali con il nome completo associato alla specializzazione.
Non puoi cambiare il training passato. Ma puoi costruire la presenza per il training futuro:
- Farti citare su media del tuo settore con il brand associato alla specializzazione
- Essere presente su Wikipedia come fonte citata in voci pertinenti
- Avere una scheda dettagliata su directory di settore (non generiche)
- Mantenere il sito ottimizzato per i sistemi RAG — che sono il bypass alla temperature bassa
Coerenza batte volume
Un aspetto che emerge quando analizzi i brand che l’AI raccomanda: non sono necessariamente quelli con più menzioni in assoluto. Sono quelli con menzioni coerenti.
Se un’agenzia si definisce “specialisti in brand strategy” sul sito, “agenzia creativa full-service” su LinkedIn e “consulenti di marketing digitale” sulla directory, sta distribuendo la probabilità su tre sequenze di token diverse. Nessuna raggiunge la massa critica. L’AI non sa quale associazione è quella giusta, e nei contesti a temperature bassa — dove passa solo il token più probabile — nessuna delle tre varianti supera la soglia.
Dieci menzioni coerenti su fonti autorevoli battono cento menzioni sparse e contraddittorie. La temperature bassa premia chi ha concentrato il segnale, non chi lo ha disperso.
Un test che puoi fare adesso
Prima di costruire qualsiasi strategia, devi sapere dove sei. Il “test delle 10 query” è quello che uso con i clienti:
Elenca le 10 query più importanti per il tuo business. Fai ognuna su ChatGPT (senza browsing attivo), Gemini e Perplexity. Per ogni risposta annota chi viene menzionato. Ripeti tra 30 giorni.
Se il tuo brand non compare su ChatGPT ma compare su Perplexity, il problema è nel training data — e la soluzione è costruire presenza su fonti autorevoli per i prossimi cicli di addestramento. Se non compari su nessuno dei tre, il problema è più ampio e riguarda probabilmente la struttura stessa dei tuoi contenuti — e qui entrano in gioco la tokenizzazione del brand, il positional encoding e la struttura del context window.
La temperature è il meccanismo che filtra. La log-probability è il punteggio che viene filtrato. Se il tuo punteggio è basso, nessun valore di temperature ti salva.