Claude, l’editor paranoico: come il filtro costituzionale decide chi citare

Il tuo copywriting è pieno di "leader assoluto", "qualità ineguagliabile", "il meglio del made in Italy"? Su Google magari regge ancora. Su Claude ti esclude in automatico — non come penalizzazione visibile, semplicemente non vieni citato. Non è un algoritmo capriccioso: è un principio documentato di Constitutional AI che filtra i contenuti con claim non dimostrabili prima ancora di valutare l'autorevolezza. Il filtro è binario: o passi, o non passi. Ti spiego quale audit fare per identificare le frasi che ti escludono e come riformularle senza perdere la forza commerciale del testo.

Claude è il motore AI più conservativo, anche paranoico sulle fonti. Come un editor che verifica tre volte ogni citazione prima di pubblicare. Capire questo filtro è capire come entrarci.

Ti spiego perché questo non è un dettaglio tecnico. Se produci occhiali artigianali di alta gamma sulle Dolomiti e hai il sito pieno di “leader mondiale”, “qualità ineguagliabile”, “il meglio del made in Italy”, stai facendo un lavoro che su Google magari ancora tiene, ma su Claude ti esclude in automatico dalle risposte. Nessun avviso, nessuna penalizzazione visibile: semplicemente, quando qualcuno chiede “produttori di occhiali handmade sulle Dolomiti”, Claude cita qualcun altro.

Nei miei articoli della serie sulle piattaforme AI ti ho già raccontato come ChatGPT e Gemini gestiscono le citazioni. Claude è un animale diverso: ha un filtro etico codificato a monte che taglia tutto quello che suona come marketing aggressivo. E questo filtro ha un nome preciso, documentato da Anthropic nel 2022.

Il principio che governa Claude

Nel mondo della ricerca sull’allineamento AI, il team di Anthropic ha pubblicato nel 2022 il paper che descrive esattamente come Claude è stato addestrato a filtrare i contenuti. Il metodo si chiama Constitutional AI, ed è la ragione per cui Claude risponde in modo così misurato rispetto ai suoi concorrenti.

“The only human oversight is provided through a list of rules or principles, and so we refer to the method as ‘Constitutional AI’.”Bai et al., 2022

Tradotto: il modello non viene corretto caso per caso da etichettatori umani, ma segue una lista di principi scritti. Una costituzione, appunto. Ogni risposta viene valutata contro quei principi, e se una fonte — il tuo sito, un tuo articolo, una tua scheda prodotto — contiene elementi che violano i principi di onestà, misura e verificabilità, il modello preferisce non citarla.

La conseguenza operativa per te è diretta: se il tuo copywriting è costruito su superlativi non dimostrabili, Claude lo legge, lo processa, ma quando deve consigliare fonti al lettore finale ti lascia fuori. Non per cattiveria algoritmica, per design.

Lo stesso paper aggiunge una sfumatura importante sul passaggio da un modello addestrato con feedback umano a uno addestrato con feedback da AI:

“In prior work [Bai et al., 2022], we discussed how to train HH RLHF models, whereby the role of human feedback is to provide comparison labels for preference modeling on both helpfulness and harmlessness.”Bai et al., 2022

Il messaggio è che la componente “harmlessness” — l’innocuità, la non manipolazione — è stata progressivamente spostata dal giudizio umano a un giudizio automatico basato sui principi. Il che significa che il filtro è diventato più sistematico, più veloce e meno negoziabile.

Perché questo arriva prima di qualsiasi altra ottimizzazione

Negli articoli precedenti ti ho parlato di E-E-A-T per l’AI e di implicit reference weight: sono i segnali che spingono un brand verso l’alto nelle citazioni AI. Su Claude c’è uno step precedente. Prima di guardare quanto sei autorevole, il modello guarda se ti può citare senza violare la propria costituzione.

È un filtro binario: o passi, o non passi. Non c’è una via di mezzo del tipo “Claude ti cita meno”. Se nella tua pagina trova tre claim esagerati e nessuna evidenza verificabile, ti esclude dal set di fonti utilizzabili per quella risposta. Il tuo lavoro sulla struttura del contenuto, sulle entità, sull’autorevolezza — tutto importante — funziona solo se passi il filtro a monte.

Il test che puoi fare in dieci minuti

Ti faccio vedere l’esperimento che ti consiglio di replicare sul tuo settore. Per un produttore di occhiali handmade di alta gamma nella zona di Belluno, le query plausibili sono queste:

  • “migliori produttori di occhiali artigianali italiani”
  • “occhiali handmade made in Italy alta gamma”
  • “aziende di occhialeria di nicchia nel bellunese”
  • “produttori di occhiali sartoriali in Italia”

Prendi cinque di queste query, falle in parallelo a ChatGPT e a Claude, e confronta le fonti citate. Non le risposte, proprio le fonti. Segnati nome e URL di ogni fonte citata da entrambi.

Poi apri i siti citati e guarda la homepage. Non servono tool: basta leggere il tono. Troverai un pattern abbastanza netto.

Il test che ho fatto io

Ho provato quindici query sul settore eyewear luxury tra ChatGPT e Claude, metà in italiano metà in inglese, nelle ultime due settimane. Campione piccolo, test indicativo, non studio: però il pattern è uscito con chiarezza.

ChatGPT ha citato in media sei fonti per risposta, con un mix di siti ufficiali dei produttori, riviste di settore (Vogue Eyewear, L’Officiel), blog di ottica specializzata e qualche e-commerce. Claude ne ha citate in media tre e mezzo, con una preferenza netta per: pagine istituzionali del Distretto dell’Occhiale di Belluno, articoli di testate generaliste con redazione verificabile, pagine Wikipedia.

Il dato che mi interessa di più: su quindici query, Claude ha citato solo due volte un sito di produttore direttamente. ChatGPT undici volte. La differenza l’ho attribuita al linguaggio delle homepage: i produttori citati da Claude avevano pagine “chi siamo” con nomi delle persone, storia verificabile, zero superlativi. Gli altri no.

Ripeto il limite: campione di quindici query, test mio, fatto su un settore specifico. Però se lo replichi sul tuo, ti scommetto che il pattern regge.

Gli errori che vedo più spesso

Quando faccio audit di siti PMI con l’occhio Claude-first, questi sono i quattro pattern che escono quasi sempre:

  • Il superlativo generico non dimostrabile. “Leader assoluto nel settore”, “eccellenza senza compromessi”, “qualità ineguagliabile”. Claude legge “claim non verificabile” e archivia.
  • Il testimonial anonimo. “I nostri clienti ci scelgono da 20 anni”. Senza nome, senza azienda, senza data. Per Claude è rumore, non evidenza.
  • La storia aziendale scritta al superlativo. “Dal 1987 definiamo lo standard del settore”. Scritto così, zero fonti esterne che lo confermino, Claude lo considera auto-dichiarazione pubblicitaria.
  • Il “numero uno” non contestualizzato. “Tra i primi in Italia”. Primi in cosa, su quale metrica, misurata da chi. Se non c’è risposta, il filtro scatta.

Non è che Claude sia allergico al tuo orgoglio aziendale. È che, secondo la sua costituzione, un’affermazione senza evidenza verificabile non è un’affermazione usabile in una risposta.

L’audit operativo in tre passaggi

Se vuoi lavorare sul filtro Claude, questi sono i passaggi concreti nell’ordine che ti consiglio.

Passo uno: inventario dei superlativi. Apri homepage, chi siamo, pagine prodotto principali. Segnati ogni aggettivo assoluto: leader, migliore, unico, eccellenza, ineguagliabile. Obiettivo: ridurre del 70-80%. Quelli che restano devono avere una fonte esterna (un premio con data, una certificazione, un ranking pubblicato) collegata.

Passo due: sostituzione con dati circostanziati. “Produciamo 4.000 montature all’anno nella nostra fabbrica di Longarone, ogni montatura richiede in media 60 lavorazioni manuali” vale dieci volte “qualità artigianale senza compromessi”. Il primo è verificabile, il secondo no.

Passo tre: verifica entità e autori. Nomi delle persone che guidano l’azienda, con ruolo e storia. Questo si collega direttamente a quello che ti ho raccontato in author entity recognition: Claude premia le entità identificabili, e un nome proprio con biografia verificabile è il segnale più forte che puoi dare.

Per le verifiche tecniche sugli schema e sui dati strutturati, l’analisi vera richiede strumenti professionali, ma un primo check onesto lo fai con il Rich Results Test di Google: incolli l’URL della tua homepage, guardi se ti riconosce “Organization” con nome, fondatore, sede. Se non lo fa, parti da lì.

Dove ti porta tutto questo

Il punto di questo articolo non è spaventarti con Claude. È farti capire che la piattaforma AI più attenta alla misura delle fonti è anche quella che, se passi il filtro, ti cita con più stabilità nel tempo. Le fonti che Claude seleziona una volta tendono a restare nel suo set di riferimento più a lungo delle fonti volatili che ChatGPT pesca e rilascia.

Lavorare sulla visibilità nelle risposte AI significa anche questo: non scrivere per il motore più generoso, scrivere per quello più selettivo. Se passi Claude, gli altri arrivano da soli.

Nei prossimi articoli della serie ti racconto come Perplexity gestisce le citazioni in modo completamente diverso — con un filtro molto più focalizzato sulla freschezza della fonte — e come Gemini integra i segnali di Google Knowledge Graph nel suo processo di selezione. Se vuoi prepararti, ti consiglio di rileggere il pezzo sul Google Knowledge Graph Entry: è il nodo che spiega da dove Gemini prende metà delle sue risposte.

Quanto è visibile il tuo brand per le AI?

Scoprilo in 30 secondi con il nostro tool gratuito. 11 check automatici, risultati immediati.

Roberto Serra

Mi chiamo Roberto Serra e sono un digital marketer con una forte passione per la SEO: Mi occupo di posizionamento sui motori di ricerca, strategia digitale e creazione di contenuti.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Quanto è visibile il tuo brand per le AI? Analizza il tuo brand