Hai chiesto a ChatGPT informazioni sulla tua azienda e qualcosa non tornava? Un servizio che non offri, una sede che non hai, un anno di fondazione sbagliato. L'AI inventa quando non trova dati certi — e i tuoi potenziali clienti ricevono quelle informazioni sbagliate ogni giorno senza che tu lo sappia. Ti spiego come fermare le hallucination sul tuo brand.
Hai già fatto questa prova. Hai aperto ChatGPT, scritto il nome della tua azienda, e letto la risposta. E qualcosa non tornava. Un servizio che non offri. Una sede che non hai mai avuto. Un anno di fondazione sbagliato. Forse il nome del fondatore storpiato, o un numero di telefono che non è mai stato il tuo.
In quel momento hai pensato: è un errore del sistema, capiterà raramente, non importa davvero.
Importa. Ecco perché.
Ogni giorno, potenziali clienti tuoi fanno la stessa domanda a ChatGPT, Perplexity, Gemini. Ricevono la stessa risposta sbagliata. Non sanno che è sbagliata — l’AI non avverte, non mette nota a piè di pagina, non distingue tra ciò che sa e ciò che ha inventato. Formano un’impressione. Prendono decisioni. E tu non sei nella stanza quando succede.
Questo fenomeno si chiama hallucination. È uno dei problemi strutturali più studiati nella ricerca sui modelli linguistici, e per il tuo brand ha conseguenze concrete che nessuna campagna di comunicazione può correggere in tempo reale.
Perché i modelli inventano invece di ammettere di non sapere
Zhao et al. (2024) lo documentano in modo diretto nei loro studi sull’affidabilità degli LLM:
“Hallucination is one of the important factors in measuring how much a large language model is trustworthy.” — Zhao et al., 2024
La trustworthiness di un modello si misura anche dalla sua capacità di non inventare. Il problema è strutturale: i modelli non sono progettati per ammettere l’incertezza, sono progettati per generare risposte plausibili. Quando hanno dati abbondanti e coerenti su un argomento, la risposta è probabilmente corretta. Quando i dati scarseggiano, il modello riempie i vuoti con pattern statistici — genera informazioni che “suonano” corrette perché assomigliano a ciò che conosce su entità simili.
Per un brand grande e presente in migliaia di documenti nel training data, le hallucination sono rare: il modello ha troppe conferme incrociate per sbagliare su dati di base. Per un brand più piccolo, una PMI, un professionista, una realtà di nicchia — le hallucination sono frequenti, perché il modello ha pochi punti di riferimento e li usa per ricostruire un’immagine che è plausibile ma non necessariamente vera.
Non si tratta di un difetto che verrà corretto nella prossima versione del modello. È una conseguenza matematica di come funziona la generazione di testo: il modello non ha una lista di “cose che non so” — ha solo distribuzioni di probabilità su token. Quando mancano i dati, quella distribuzione converge comunque verso qualcosa.
Le forme che le hallucination prendono sul tuo brand
Non sono tutte uguali. Alcune sono facili da identificare, altre quasi invisibili.
I dati inventati sono i più evidenti: indirizzo sbagliato, telefono inesistente, anno di fondazione errato, numero di dipendenti fantasioso. Il modello li ha ricostruiti per analogia con altre aziende del tuo settore e della tua dimensione percepita.
I servizi fantasma sono più insidiosi. Il modello ti attribuisce servizi che non offri, perché nella tua industry esistono, perché hai scritto di quel tema sul blog, perché un tuo partner li offre e i due brand vengono spesso menzionati insieme. Il potenziale cliente che cerca quel servizio ti chiama. Scopre che non lo fai. Si domanda perché l’AI gli abbia dato informazioni sbagliate. Forse non si fida più.
La confusione con omonimi è comune: se esiste un altro brand con un nome simile al tuo, le informazioni si mescolano. Il modello non fa lookup — costruisce una rappresentazione aggregata di tutto ciò che ha letto, e due entità con nome simile tendono a sovrapporsi.
L’extrapolazione errata è sottile: hai pubblicato un articolo che menziona “intelligenza artificiale” e ora il modello ti descrive come un’azienda che offre servizi di AI. Non stavi dicendo quello — stavi analizzando il tema — ma il modello ha inferito un’associazione e l’ha cristallizzata.
Le citazioni inventate sono le più gravi: il modello può generare opinioni, recensioni o affermazioni attribuite al tuo brand che non hai mai fatto. Non esistono da nessuna parte — sono pattern linguistici proiettati su di te. Se qualcuno le prende per reali, le conseguenze sono difficili da contenere.
Il collegamento con il knowledge cutoff
Queste due dinamiche — hallucination e knowledge cutoff — sono collegate in modo diretto. Come spiegato nell’articolo sul knowledge cutoff e l’obsolescenza delle informazioni sul tuo brand, il modello ha una data oltre cui non vede. Ma il problema non è solo l’obsolescenza.
Il problema è che il cutoff crea vuoti. E i vuoti vengono riempiti.
Hai aperto una nuova sede sei mesi fa. Hai dismesso un servizio. Hai cambiato focus di mercato. Hai un nuovo CEO. Il modello non lo sa — quelle informazioni non erano ancora nel corpus di training al momento del cutoff. E quando qualcuno chiede, non risponde “non lo so”: risponde con ciò che aveva, integrato con ciò che si aspetta che un’azienda come la tua dovrebbe avere.
Il risultato può essere più sbagliato dell’informazione obsoleta che aveva. Un’informazione vecchia è almeno una fotografia reale di un momento passato. Un’informazione costruita per analogia non corrisponde a nessun momento reale.
Perché il grounding è la risposta strutturale
Gao et al. (2024), in uno dei paper più citati sull’architettura RAG, identificano la hallucination come uno dei rischi sistematici della generazione AI:
“In generating responses, the model may face the issue of hallucination, where it produces content not supported by the retrieved documents.” — Gao et al., 2024
Nota la formulazione: “not supported by the retrieved documents”. Quando il modello ha documenti recuperati che supportano l’affermazione, la hallucination si riduce. Quando i documenti mancano o sono insufficienti, il modello va avanti lo stesso — ma senza base reale.
Questo è il meccanismo che l’articolo sul grounding e la citazione con attribuzione spiega nel dettaglio: il tuo contenuto deve essere strutturato in modo che il modello possa ancorarvisi. Dati specifici, affermazioni verificabili, informazioni che il modello non potrebbe generare da solo. Ogni dato groundable che pubblichi è un punto di ancoraggio che riduce lo spazio disponibile per l’invenzione.
La logica è semplice: il modello inventa quando non ha dati. La soluzione non è chiedere al modello di non inventare — è fornire dati abbondanti, coerenti, strutturati, su più canali. Meno spazio per l’incertezza significa meno hallucination.
Il rischio sistemico nei contesti multi-agente
C’è una dimensione del problema che va oltre il singolo chatbot. Chen et al. (2026), analizzando i sistemi AI multi-agente, identificano un rischio di propagazione:
“These interactions breach traditional trust boundaries, where localized malicious inputs or model hallucinations can propagate through the system.” — Chen et al., 2026
Le hallucination non restano confinate. In un ecosistema in cui sistemi AI diversi si consultano, si aggregano, si utilizzano come fonti l’uno dell’altro, un’informazione sbagliata può propagarsi. Un modello che ha generato un’hallucination sul tuo brand può diventare fonte — diretta o indiretta — per altri sistemi. Il problema non rimane isolato nel singolo scambio.
Da questo segue che il monitoraggio periodico non è sufficiente: non è detto che un’hallucination corretta oggi non si ripresenti domani perché un sistema diverso l’ha nel suo contesto. La risposta duratura è ridurre la probabilità di hallucination alla fonte, fornendo dati certi su cui tutti i sistemi possano appoggiarsi.
Come monitorare le hallucination sul tuo brand
Il primo passo è sapere cosa dice l’AI di te adesso. Non fidarti della memoria — fai il test.
Apri ChatGPT, Gemini e Perplexity. Per ciascuno, poni queste domande e annota ogni informazione che non corrisponde alla realtà:
- Cos’è [tuo brand] e cosa fa?
- Dove si trova [tuo brand]?
- Quali servizi offre [tuo brand]?
- Chi ha fondato [tuo brand] e quando?
- Quanto costa [tuo servizio principale]?
- Quali sono le opinioni su [tuo brand]?
- Chi sono i clienti tipici di [tuo brand]?
- Quali sono i competitor di [tuo brand]?
Ogni informazione sbagliata è una hallucination. Per ciascuna, fai una seconda analisi: esiste da qualche parte nel web una fonte con quell’informazione sbagliata, o il modello l’ha costruita da zero? Se esiste una fonte errata, correggerla è prioritario. Se è costruita da zero, il problema è la scarsità di dati certi.
Questo è un servizio che seguo con i clienti con cui lavoro sul monitoraggio della visibilità AI: la mappatura periodica delle hallucination attive è il punto di partenza per costruire una strategia di correzione basata su dati reali, non supposizioni.
Cosa fare concretamente per ridurre le hallucination
Non si risolve con una singola azione. Si risolve saturando lo spazio informativo con dati certi.
- Schema Organization completo sul sito: nome ufficiale, indirizzo, telefono, sito, anno di fondazione, CEO, settore, servizi. Ogni campo compilato è un dato che il modello può ancorare. Lasciarlo vuoto è un invito all’invenzione.
- Google Business Profile aggiornato: è una delle fonti strutturate che i sistemi AI consultano più frequentemente. Indirizzo, orari, categorie, descrizione — aggiornati e coerenti con il sito.
- Pagina Chi siamo esaustiva: non tre righe. Una pagina con storia, team, servizi con descrizione specifica, numeri reali (clienti, anni di attività, settori). Questa pagina deve rispondere a tutte le domande che un utente farebbe sull’identità del tuo brand.
- Presenza coerente su più fonti: LinkedIn aziendale, directory di settore, Crunchbase se applicabile. La coerenza tra fonti multiple è il segnale più forte contro la hallucination: il modello incrocia, trova convergenza, non ha motivo di inventare.
- Pubblicazione regolare di dati verificabili: come analizzato nell’articolo sul grounding, i contenuti con dati originali, metodologie documentate, risultati specifici sono quelli che il modello preferisce ancorare. Sono anche quelli che lasciano meno spazio all’invenzione.
La verifica che devi fare questa settimana
Fai il test delle 8 domande sui tre principali sistemi AI. Documenta gli errori. Classifica ognuno: dati strutturali mancanti (schema, GBP), fonti errate da correggere, vuoti informativi da colmare con contenuto nuovo.
Poi metti mano al più urgente. Non tutto insieme — identifica quale hallucination ha il maggiore impatto su un potenziale cliente che valuta il tuo brand, e parti da lì.
Il problema delle hallucination non si risolve mai definitivamente perché i modelli si aggiornano, cambiano, includono nuove fonti. Ma si gestisce: con monitoraggio periodico, dati strutturati sempre aggiornati, e una strategia di presenza su più canali che riduce strutturalmente lo spazio disponibile per l’invenzione.
Chi capisce questo ha un vantaggio su chi aspetta che il problema si risolva da solo. Non si risolve da solo. Si gestisce — e si gestisce prima che il danno sia già fatto.
Per approfondire come il ragionamento a catena nei motori AI influenza quali fonti vengono selezionate, o come il tool use modifica la probabilità di hallucination nei sistemi con accesso a dati live, i prossimi articoli di questa serie entrano nei meccanismi operativi. Per capire come il planning multi-step e le conversazioni multi-turn possono amplificare o contenere il problema, ci sono altri due livelli di analisi che cambiano il modo di pensare alla visibilità AI.