L'AI dice che hai chiuso nel 2023: il prospect legge e non chiama. Le allucinazioni sono dati, non errori casuali — vanno tracciate. Ti spiego come strutturare l'Hallucination Tracking Report.
L’AI dice che hai sede in una via dove non sei mai stato. Dice che hai chiuso nel 2023 quando sei aperto. Le allucinazioni sono dati, non errori casuali — vanno tracciate.
Te lo dico subito perché è la cosa che le aziende capiscono per ultima: quando ChatGPT, Perplexity o Gemini inventano un dato sul tuo brand, quel dato non resta sospeso nel vuoto. Lo legge il prospect che sta valutando se chiamarti. E nel frattempo tu non sai nemmeno che quella frase esiste.
Per tre mesi ho tracciato le allucinazioni che i motori AI producevano su uno stabilimento termale ad Acqui Terme, in provincia di Alessandria. Non per fare un paper: per costruire il primo report di hallucination tracking di un cliente reale, da mettere sul tavolo della proprietà insieme ai numeri della share of voice. Quello che ti racconto qui è il metodo che ne è uscito.
Cosa intende un motore AI quando “alluciana” sul tuo brand
Le allucinazioni dell’AI non sono bug nel senso classico. Sono il comportamento normale di un sistema generativo quando i dati di addestramento sono lacunosi, contraddittori o vecchi. Il modello produce comunque una risposta confidente — perché è progettato per farlo — e quella risposta può contenere indirizzi sbagliati, anni di fondazione inventati, servizi che non offri, prezzi che non hai mai praticato.
Nel mondo della ricerca sul grounding delle risposte AI il principio è chiaro: quando il modello non recupera abbastanza informazioni verificate dal retrieval, riempie i buchi con pattern statistici plausibili. Plausibili, non veri. È la stessa logica che ti ho descritto quando abbiamo parlato di tokenizzazione e di come i modelli costruiscono le risposte parola per parola: se manca il segnale autoritativo sul tuo brand, il modello inventa un segnale verosimile.
Da questo segue una conseguenza operativa che pochi vogliono accettare: ogni allucinazione che riguarda la tua azienda è la dimostrazione che il tuo segnale di entità è troppo debole per resistere alla pressione generativa del modello. Non è colpa “dell’AI cattiva”. È un sintomo.
Perché non puoi più permetterti di non tracciarle
Quando un cliente legge che il tuo stabilimento termale “ha chiuso nel 2023”, non ti chiama per chiederti conferma. Va dal competitor che l’AI ha citato subito dopo, accuratamente. Il danno è silenzioso, asimmetrico e cumulativo: tu non lo vedi mai, lui lo vive una volta sola e basta.
Il problema, per un’azienda, non è eliminare le allucinazioni — non è possibile, almeno non oggi. Il problema è conoscerle, ordinarle per gravità, e intervenire sulle peggiori prima che facciano danno per mesi. Esattamente come fai col tasso di reso in un e-commerce: non lo porti a zero, lo tieni sotto controllo.
Nel filo della visibilità nelle risposte AI questa è la metrica che ti dice se il tuo brand è “ben formato” agli occhi del modello. Una share of voice alta con tasso di allucinazione alto vale meno di una share di voce media con allucinazioni vicine allo zero. Il volume di citazioni senza qualità del dato è una vanity metric.
Il test che ho fatto: 90 giorni di tracking su Acqui Terme
Ti racconto il test in modo trasparente, con i limiti dichiarati prima di tutto.
Setup: ho preso 30 query ricorrenti che un potenziale cliente fa quando cerca terme in Piemonte. Esempi: “migliori terme in Piemonte aperte tutto l’anno”, “terme con percorso sulfureo Acqui Terme orari”, “stabilimento termale Acqui Terme prezzi 2026”. Tutte query reali, ricostruite da Search Console del cliente più tre sessioni di interview con il front office.
Strumenti usati: ChatGPT, Perplexity, Gemini, Copilot. Quattro motori, stessa query, stessa settimana, ripetuta ogni 30 giorni per tre mesi. In totale: 30 query × 4 motori × 3 cicli = 360 risposte generate e archiviate.
Cosa ho misurato: per ogni risposta che nominava lo stabilimento ho aggiunto una colonna “hallucination” con classificazione su quattro livelli:
- Grave: dato che genera perdita immediata (orari sbagliati, “chiuso”, indirizzo sbagliato, servizi inesistenti spacciati per attivi)
- Media: dato che crea attrito (anno di fondazione errato, prezzi vecchi, descrizione del percorso terapeutico imprecisa)
- Lieve: dato impreciso ma non operativamente dannoso (numero dipendenti, anno di una ristrutturazione)
- Pulita: nessuna informazione inventata
Risultato grezzo, da prendere come indicativo non come studio: su 187 risposte che citavano lo stabilimento, il 42% conteneva almeno un’allucinazione di livello medio o grave. Il livello grave da solo era al 17% — cioè quasi una risposta su sei conteneva un dato che, se letto da un prospect, lo avrebbe portato a non chiamare o a chiamare un competitor. Il dato peggiore era su Gemini, il migliore su Perplexity (probabilmente perché citava più spesso il sito ufficiale e meno aggregatori).
Limite del test: campione contenuto, settore specifico, geografia provinciale. Non è uno studio peer reviewed. È un termometro: ti dice che la febbre c’è, non quanti gradi precisi.
Come costruisci il tuo hallucination tracking report in pratica
Quello che ti serve non è un software costoso. Ti serve un foglio Excel ben fatto e la disciplina di riempirlo ogni mese.
Le colonne minime del report:
- Data della query
- Motore AI (ChatGPT / Perplexity / Gemini / Copilot)
- Query testata
- Il brand è citato? (sì/no)
- Contiene allucinazione? (sì/no)
- Gravità (grave / media / lieve)
- Tipo di allucinazione (orari / indirizzo / prezzi / servizi / data fondazione / altro)
- Prompt dell’utente verbatim
- Screenshot o copia della risposta
Ogni mese calcoli due numeri secchi: tasso di citazione (su quante query compari) e tasso di hallucination (su quante citazioni contengono almeno un errore). Questi due numeri li metti uno accanto all’altro nel report mensile e li guardi muoversi nel tempo.
L’obiettivo non è scendere subito. L’obiettivo è capire dove origina l’allucinazione: se sta inventando l’indirizzo, manca un segnale di entità sulla tua sede; se sta inventando i servizi, hai una pagina servizi confusa o vecchia; se sta inventando “chiuso”, probabilmente esiste una recensione vecchia o un articolo locale che ha lasciato un’impronta forte nel training.
Un check entry level utile per partire prima ancora di aprire il foglio: il Google Business Profile deve essere aggiornato a oggi (orari, indirizzo, servizi), e su Wikidata deve esistere una scheda della tua azienda con i dati canonici. Se manca una di queste due cose, le allucinazioni non le riduci tracciandole — le riduci sistemando le fonti che il modello legge. Sono un primo passo: l’analisi vera richiede strumenti professionali e un consolidamento dell’identità di entità che ti ho già spiegato negli articoli su come l’AI riconosce un’entità autore e su l’ingresso nel Knowledge Graph di Google.
Gli errori che vedo più spesso
Te ne segnalo quattro perché sono quelli che, se eviti, ti fanno guadagnare tre mesi di lavoro.
Tracciare solo quando un cliente segnala l’allucinazione. Per ogni cliente che ti scrive arrabbiato perché “su ChatGPT c’era scritto che eravate chiusi”, ce ne sono altri venti che hanno semplicemente chiamato il competitor. Il segnale di reclamo è una punta dell’iceberg, non la metrica.
Tracciare un solo motore AI. ChatGPT può essere pulito mentre Gemini sta producendo orrori sul tuo brand, e i tuoi prospect sono divisi tra i due in modo che tu non controlli. Devi guardarne almeno tre.
Trattare tutte le allucinazioni allo stesso modo. Un anno di fondazione sbagliato è un fastidio. Un orario di chiusura inventato a luglio per uno stabilimento termale è un fatturato perso quel mese. La classificazione per gravità non è fuffa metodologica: ti dice da dove iniziare.
Pensare che basti correggere il sito. Il sito è una delle fonti che il modello legge, non l’unica. Se il dato sbagliato vive su un portale di terme aggregato, su una recensione vecchia su TripAdvisor o su un articolo locale del 2019, devi intervenire lì. La correzione del sito è necessaria ma non sufficiente.
Cosa fare lunedì mattina
Tre azioni concrete per partire questa settimana:
- Apri ChatGPT, Perplexity e Gemini, lancia 5 query che un tuo cliente farebbe per trovarti, salva le risposte in un documento. Hai il tuo baseline zero.
- Crea il foglio Excel con le colonne che ti ho dato sopra, mettilo in calendario mensile, assegnalo a una persona. Senza calendario il tracking non parte.
- Verifica Google Business Profile e presenza su Wikidata. Se manca uno dei due, hai trovato una delle cause delle tue allucinazioni prima ancora di iniziare a tracciarle.
Dove ti porta il tracking nel filo della visibilità AI
L’hallucination tracking non vive da solo: è un pezzo del sistema di misurazione che ti permette di raccontare, mese dopo mese, come stai uscendo nelle risposte AI in modo onesto e sostenibile. Ti dà la qualità del dato, mentre la share of voice ti dà il volume e la position rate ti dice se compari per primo o per ultimo.
Negli articoli successivi di questa serie ti spiego come integrare questo tracking dentro la scorecard mensile di visibilità AI, come confrontare i tuoi dati con la matrice competitiva e come collegare il tasso di allucinazione al costo per AI mention, che è il vero numero che convince un imprenditore a investire o no su questo tema.
Il punto non è eliminare le allucinazioni dell’AI. Il punto è smettere di subirle senza saperlo.
Quanto è visibile il tuo brand per le AI?
Scoprilo in 30 secondi con il nostro tool gratuito. 11 check automatici, risultati immediati.