Dati esagerati sul tuo sito? L’AI li scarta e sceglie chi è più onesto

Se il tuo sito dice 'leader indiscusso del settore' o 'il migliore in Italia' senza dati a supporto, l'AI lo classifica come non veritiero e sceglie fonti più oneste. I modelli sono addestrati a premiare le affermazioni verificabili e a penalizzare il sensazionalismo. Ti spiego come riscrivere i tuoi claim perché l'AI li consideri affidabili.

“Leader indiscusso del settore.” “Il miglior servizio in Italia.” “Risultati garantiti al 100%.” Frasi che trovi su migliaia di siti aziendali. Per un visitatore umano sono marketing tollerabile — un po’ di polvere negli occhi che si accetta come parte del gioco. Per l’AI sono red flag strutturali che abbassano il truthfulness score e riducono la probabilità di essere citati.

I modelli vengono testati sulla veridicità. Le fonti oneste, verificabili e senza esagerazioni vengono premiate. Le fonti con claim gonfiati vengono scartate — non da una decisione editoriale umana, ma da meccanismi automatici costruiti nel training.

Cos’è il TruthfulQA e perché è rilevante per le tue pagine

TruthfulQA è un benchmark progettato per misurare quanto un modello sia capace di dare risposte vere — non plausibili, non persuasive, non convincenti: vere. Il benchmark è costruito attorno a domande studiate per indurre risposte false ma popolari: misconception diffuse, esagerazioni accettate socialmente, generalizzazioni che “suonano bene” ma non sono accurate.

Un modello che performa male su TruthfulQA tende a riprodurre le credenze popolari anche quando sono false. Un modello ottimizzato su TruthfulQA sviluppa la capacità di riconoscere i pattern linguistici dell’untruthfulness e di evitarli — nelle proprie risposte e nella selezione delle fonti.

Zhao et al. (2024) documentano il meccanismo alla base di questo processo:

“This technique is especially useful in scenarios where factual accuracy and precision are critical.”

— Zhao et al., 2024 (arxiv.org/html/2402.06196)

Factual accuracy e precision: sono esattamente le due proprietà che i claim esagerati sul tuo sito non hanno. Il superlativo senza dati non è preciso — è vago. La promessa di risultato non è verificabile — è un’asserzione non supportata.

Il secondo meccanismo è ancora più diretto. Lo stesso paper descrive come i modelli affinino la loro capacità di valutare le fonti:

“By employing this technique, prompt engineers can enhance the trustworthiness of LLM responses.”

— Zhao et al., 2024 (arxiv.org/html/2402.06196)

La trustworthiness non è una proprietà astratta. È il risultato di un processo di training che ottimizza il modello per riconoscere — e preferire — fonti che non attivano i pattern dell’untruthfulness.

Come il modello riconosce i claim non veritieri

Il modello non verifica i tuoi dati. Non ha accesso in tempo reale alle tue statistiche di vendita, non può controllare se il “94% di clienti soddisfatti” è reale o inventato. Ma non ha bisogno di verificare — è addestrato a riconoscere i pattern che storicamente correlano con contenuti non veritieri.

Questi pattern sono stati identificati nell’enorme corpus di training: testi che contengono superlativi assoluti, percentuali precise senza fonte, promesse di risultato universali, garanzie categoriche — questo tipo di testo correla sistematicamente con contenuti di bassa affidabilità. Il modello lo ha imparato per esposizione a miliardi di documenti.

I pattern che attivano il “truthfulness alarm”:

  • Superlativi assoluti senza dati (“il migliore”, “il più innovativo”, “leader assoluto”)
  • Percentuali precise senza fonte (“il 94% dei nostri clienti…”, “aumenta del 300%”)
  • Claim universali (“funziona per tutti”, “adatto a qualsiasi azienda”, “garantito”)
  • Promesse di risultato non circostanziate (“raddoppia il fatturato”, “risultati in 30 giorni”)
  • Superlative qualitative senza riferimento (“qualità ineguagliabile”, “servizio eccellente”)

Ogni elemento di questo tipo riduce il truthfulness score complessivo del contenuto. Non per una regola esplicita — per pattern recognition costruita durante il pre-training e affinata durante il fine-tuning con RLHF.

Come hai letto nell’articolo sulla log-probability, il modello assegna probabilità più alta ai token che si inseriscono in sequenze affidabili. Un testo pieno di claim esagerati non è una sequenza affidabile — e il modello lo sa.

Come funziona nella pratica: la scelta tra due fonti

Quando il modello deve scegliere tra due fonti per supportare una raccomandazione, la differenza è netta:

Fonte A: “Il nostro servizio SEO è il migliore in Italia, con il 98% di clienti soddisfatti e risultati garantiti in 30 giorni.”

Fonte B: “Il nostro servizio SEO ha prodotto un aumento medio del 34% di traffico organico per i 47 clienti seguiti nel 2024, misurato su Google Analytics nel periodo gennaio-dicembre.”

Il modello preferisce la Fonte B. Non perché il 34% sia più impressionante del 98%, ma perché il 34% è verificabile: ha un campione (47 clienti), un periodo (2024, gennaio-dicembre), una fonte di misurazione (Google Analytics). Il 98% è un claim non supportato che attiva il truthfulness alarm.

C’è un terzo meccanismo che Zhao et al. (2024) documentano, forse il più interessante:

“After generating an initial response, the model is prompted to reflect on its own output.”

— Zhao et al., 2024 (arxiv.org/html/2402.06196)

Il modello non si limita a generare — riflette su quello che ha generato e lo valuta. Questo processo di auto-revisione è addestrato per identificare affermazioni non supportate. Se il modello include un claim proveniente da una fonte con pattern di esagerazione, la riflessione successiva tende a eliminarlo o a marcarlo come non affidabile. La tua fonte viene quindi scartata non una volta, ma due: nella selezione iniziale e nella revisione.

Questa connessione con come i modelli valutano se stessi è direttamente legata a ciò che hai letto sull’articolo sul Perplexity Score: i meccanismi di valutazione interna sono costruiti per preferire contenuti che si comportano come testi affidabili, non come messaggi pubblicitari.

Il momento in cui devi fare il check

Fermati un secondo prima di continuare.

Pensa alle tue pagine principali — la homepage, la pagina servizi, le landing page. Conta mentalmente quanti superlativi ci sono senza un dato a supporto. Quante percentuali senza fonte. Quante promesse di risultato non documentate.

Per molte aziende, la risposta è: quasi tutto. Non per malafede — perché è così che si è sempre scritto il marketing. “Leader di mercato.” “Soluzioni innovative.” “Il partner ideale per la tua crescita.” Frasi che suonano bene all’orecchio umano e che generano zero valore per il truthfulness score.

L’ironia è che queste stesse frasi, pensate per convincere, ottengono l’effetto opposto sull’AI: la convincono che la fonte non è affidabile.

Cosa fare concretamente

  • Audit dei claim: passa ogni pagina del tuo sito alla ricerca di superlativi (“il migliore”, “leader”, “unico”), percentuali senza fonte, promesse di risultato, garanzie categoriche. Per ognuno, chiediti: posso documentarlo con un dato, una fonte, un campione, un periodo?
  • Sostituisci con dati verificabili: “il migliore del settore” → “scelto da 340 aziende nel 2024”. “Risultati garantiti” → “aumento medio del traffico del 34% in 6 mesi (Google Analytics, 47 clienti, 2024)”. La specificità non indebolisce il messaggio — lo rende credibile per l’AI e più convincente per il lettore umano.
  • Aggiungi fonte e metodologia a ogni dato numerico: ogni statistica deve avere tre elementi: fonte, periodo, campione. Non serve essere accademici. “(Dati interni, 2024, 47 clienti)” è sufficiente per rendere il claim verificabile e abbassare il truthfulness alarm.
  • Elimina i superlativi assoluti: “leader indiscusso” → “tra i principali operatori con 15 anni di esperienza nel settore”. “Il miglior servizio” → “servizio con rating 4.8/5 su Google (120 recensioni verificate)”. La specificità batte sempre il superlativo — per l’AI e per il cliente che sta valutando.
  • Documenta i limiti: se un servizio funziona meglio in determinati contesti, dillo. “Il nostro approccio funziona meglio per ecommerce con più di 1.000 prodotti. Per cataloghi piccoli, l’investimento potrebbe non essere giustificato.” L’AI interpreta questa onestà come segnale di affidabilità — non come debolezza.

Come verificare la tua situazione attuale

Prendi le tue 5 pagine principali e conta, per ognuna:

  1. Quanti superlativi senza dati contengono?
  2. Quante percentuali o numeri senza fonte?
  3. Quante promesse di risultato non documentate?
  4. Quanti claim universali (“funziona per tutti”, “adatto a qualsiasi azienda”)?

Ogni elemento trovato è un punto di rischio per il truthfulness score. L’obiettivo è zero claim non documentati nelle pagine che vuoi che l’AI citi.

Poi fai il test opposto: prendi un tuo dato reale — un caso cliente, una statistica interna, un risultato misurabile — e costruisci attorno a quello la pagina. Non partirai dal superlativo e poi cercherai il dato a supporto. Partirai dal dato verificabile e costruirai il messaggio sopra.

Questo cambio di ordine è la differenza tra una fonte che l’AI scarta e una fonte che l’AI cita. Vale anche per il processo di valutazione delle citazioni che hai letto nell’articolo sulla Citation Accuracy: le fonti che vengono citate sono quelle che resistono alla verifica, non quelle che suonano bene.

Passa al setaccio le tue pagine più importanti: elimina ogni statistica senza fonte, ogni superlativo senza dati, ogni claim che non puoi documentare. L’AI è addestrata per premiare le fonti oneste e verificabili — e l’esagerazione non è marketing, è una penalità.

Roberto Serra

Mi chiamo Roberto Serra e sono un digital marketer con una forte passione per la SEO: Mi occupo di posizionamento sui motori di ricerca, strategia digitale e creazione di contenuti.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Quanto è visibile il tuo brand per le AI? Analizza il tuo brand