Hai 20 anni di casistica medica ma ChatGPT cita blog anonimi. In settori regolati l'AI cerca segnali di compliance che tu non stai esibendo. Ti spiego come renderli leggibili.
Sei uno studio medico specialistico che investe in contenuti di qualità, ha un sito aggiornato, tre dottori con pubblicazioni scientifiche e vent’anni di casistica. Poi qualcuno apre ChatGPT e chiede “miglior specialista ortopedico a Ancona” o “cardiologo esperto nelle Marche”: l’AI risponde citando blog generalisti anonimi, portali di prenotazione online, siti farciti di contenuti SEO scritti da copywriter che di medicina sanno quanto te di cardiologia.
Il tuo brand non compare. Mai.
Non è un bug, non è cattiva volontà, non è che il tuo sito sia lento. È che nei settori YMYL — Your Money Your Life, cioè sanità, legale, finanza — i modelli AI applicano un filtro di verifica dell’entità più stretto rispetto ad altri settori. E se le tue credenziali non sono strutturate in modo che la macchina le legga come segnali di credibilità, vieni escluso. Non bocciato: escluso a monte, per sicurezza.
Ti spiego come funziona il filtro, cosa pubblicare perché tu lo superi, e ti racconto il caso reale di uno studio ortopedico marchigiano che in quattro mesi è passato da zero citazioni a visibilità stabile nelle risposte AI.
Cosa vede la macchina quando legge la pagina del tuo studio
Nel mondo della ricerca sulla credibility assessment con modelli linguistici, Mao e il suo gruppo hanno pubblicato una survey che descrive come i sistemi AI valutano l’affidabilità di una fonte prima di citarla. Il processo è a due fasi.
“First, granular credibility signals (also referred to as credibility indicators) are detected.” — Mao et al., 2024
Tradotto: il sistema prima scansiona la pagina cercando segnali granulari di credibilità — elementi specifici, puntuali, verificabili. Non giudica il tono, non giudica la lunghezza del testo: cerca marcatori precisi come un nome proprio, un numero di iscrizione a un albo, un titolo di studio, un’affiliazione istituzionale.
La conseguenza operativa per te è netta. Se la tua pagina “Chi siamo” dice “Dr. Rossi, ortopedico con ventennale esperienza”, la macchina legge una stringa generica. Se invece dice “Dr. Mario Rossi, iscrizione Ordine dei Medici di Ancona n. 12345, specializzazione in Ortopedia e Traumatologia presso Università Politecnica delle Marche (2003), socio SIOT”, la macchina legge cinque segnali verificabili e separati. Nel primo caso vieni scartato per mancanza di evidenze; nel secondo superi il primo filtro.
Perché i settori YMYL hanno un filtro più severo
Sempre dalla stessa survey arriva il motivo per cui sanità, legale e finanza vengono trattati con più rigore rispetto, ad esempio, a turismo o arredamento.
“False content that is perceived as highly credible by its audience can lead to significantly greater harm than false content that is clearly perceived as lacking credibility.” — Mao et al., 2024
In italiano: contenuti falsi che sembrano credibili fanno molto più danno di contenuti falsi che si capisce subito che sono spazzatura. Questo è il principio che spinge ChatGPT, Claude, Gemini e Perplexity ad alzare l’asticella su tre aree specifiche: se suggeriscono un cardiologo sbagliato, un avvocato incompetente o un consulente finanziario fantasma, il danno all’utente è diretto e misurabile. Quindi meglio non citare nessuno che citare male.
Tradotto in pratica per il tuo studio: nel tuo settore la barra è alta per design. Non è un pregiudizio contro le PMI, è un meccanismo di safety. E si supera in un solo modo: dando alla macchina abbastanza segnali verificabili da farle rischiare la raccomandazione.
Se vuoi capire più a fondo come i motori AI costruiscono la reputazione di un autore o di un’organizzazione, ho trattato la questione negli articoli su E-E-A-T per l’AI e author entity recognition: sono il contesto su cui poggia tutto quello che stai leggendo qui.
Il test che puoi fare in dieci minuti
Prima di spendere soldi in consulenze, fai tre controlli tu stesso.
Primo: apri il Rich Results Test di Google. Incolla l’URL della pagina “Chi siamo” dello studio e cerca nei risultati le entità “Person”, “Physician”, “MedicalBusiness” o “Organization”. Se non trovi nulla, il sito non sta comunicando alla macchina che esistono dei professionisti strutturati con credenziali. Soglia binaria: o c’è lo schema, o non c’è.
Secondo: apri displaCy ENT e incolla il testo della tua pagina biografica. Guarda quante entità di tipo PERSON, ORG e GPE (luoghi) vengono riconosciute in automatico. Se sulla biografia di un medico con vent’anni di carriera il sistema estrae tre entità sfocate, la tua pagina è opaca per le macchine.
Terzo: apri Wikidata e cerca il nome del tuo studio e dei singoli professionisti. Se non esistono schede, non esiste ancoraggio. I modelli AI usano Wikidata come grafo di riferimento per disambiguare entità con lo stesso nome.
Con questi tre check capisci entro mezz’ora se il tuo studio è invisibile per motivi strutturali o per motivi di contenuto. È un audit entry level, sia chiaro: l’analisi vera richiede strumenti professionali e un lavoro editoriale continuo. Ma ti dà una prima fotografia onesta.
Il caso dello studio ortopedico nelle Marche
Quattro specialisti, sede ad Ancona, casistica solida, sito WordPress curato, blog aggiornato due volte al mese con articoli tecnici scritti dai medici stessi. Quando abbiamo iniziato, ChatGPT e Perplexity alla query “ortopedico Ancona” e varianti citavano zero volte lo studio. Citavano due portali di prenotazione, un blog di divulgazione medica con sede a Roma e una clinica privata non specialistica.
L’intervento è stato chirurgico, niente di magico.
Prima: aggiunta di schema `Physician` per ciascuno dei quattro specialisti, con campi `identifier` (iscrizione Ordine di Ancona), `alumniOf` (università di laurea e specializzazione), `memberOf` (società scientifiche: SIOT, SIAGASCOT), `knowsAbout` (subspecialità cliniche puntuali), `medicalSpecialty`. Schema `MedicalBusiness` per lo studio con indirizzo strutturato, P.IVA, orari, accreditamenti.
Seconda: riscrittura delle biografie. Via formulazioni tipo “grande esperienza in chirurgia del ginocchio”, dentro numeri, anni, interventi documentati, pubblicazioni con DOI, conferenze con link.
Terza: creazione schede Wikidata per i due specialisti con più pubblicazioni indicizzate su PubMed, ancorando l’entità persona all’entità studio e alle entità università/società scientifiche.
Risultato dopo quattro mesi, misurato su un campione di ottanta query reali sul settore (prodotte variando specializzazione, zona, sintomo): citazione dello studio in diciannove casi su ottanta su Perplexity, undici su ChatGPT, otto su Gemini. Da zero a presenza stabile in circa un quarto delle query pertinenti. Test indicativo, campione non enorme, ma pattern chiaro e replicabile.
Gli errori che vedo più spesso
Quando analizzo studi medici, legali o finanziari che non compaiono nelle risposte AI, quattro pattern si ripetono.
Biografie autoreferenziali senza dati verificabili. “Il dottor X è un riferimento nel settore” non è un segnale, è un’opinione. La macchina non la processa.
Numero di iscrizione all’albo assente o nascosto nel footer. È il segnale più forte di credenziale professionale nel tuo settore, e spesso lo trattate come un dettaglio burocratico invece che come il più importante marker di verifica.
Schema markup generico “LocalBusiness” al posto di “Physician”, “Attorney”, “FinancialService”. Il tipo specifico porta un set di campi dedicati che quello generico non ha.
Zero distinzione tra i singoli professionisti e lo studio come entità. Uno studio con quattro specialisti deve avere cinque entità: lo studio più i quattro medici, collegate fra loro con relazioni esplicite. Un unico blob informativo “noi siamo uno studio di quattro specialisti” è più debole.
L’altro lato: perché pochi superano il filtro davvero
Chiudo con un altro passaggio dalla survey di Mao, che spiega perché la maggioranza dei siti YMYL italiani resta fuori.
“Notably, there is a scarcity of approaches that detect and aggregate multiple credibility signals simultaneously.” — Mao et al., 2024
Tradotto: al momento sono pochi i sistemi che riescono a rilevare e aggregare più segnali di credibilità contemporaneamente. La conseguenza pratica è che i modelli AI quando aggregano preferiscono poche fonti che cumulano molti segnali chiari, invece di molte fonti che ne cumulano pochi ciascuna. Quindi non serve avere tutto perfetto: serve averne abbastanza, e averli strutturati in modo che siano leggibili nello stesso passaggio.
Lo studio ortopedico marchigiano di cui ti ho raccontato non aveva citazioni su testate nazionali, non aveva profili TED, non aveva libri pubblicati. Aveva iscrizioni all’albo, titoli di studio, società scientifiche e una decina di pubblicazioni peer-reviewed. Strutturati bene, sono bastati.
Cosa fare concretamente questa settimana
- Verifica che ogni professionista dello studio abbia una pagina dedicata con: nome completo, numero albo, ordine di iscrizione, università di laurea, specializzazioni con anno, società scientifiche di appartenenza.
- Aggiungi schema markup specifico del settore (Physician, Attorney, FinancialService) per ciascun professionista e MedicalBusiness/LegalService per lo studio. Testa con il Rich Results Test.
- Per i due/tre professionisti con più pubblicazioni o riconoscimenti, crea scheda Wikidata e collegala all’entità studio.
- Confronta la tua pagina “Chi siamo” con quella dei tre o quattro studi concorrenti che l’AI cita nel tuo settore e nella tua zona: guarda cosa hanno loro e a te manca.
- Non promettere risultati in due settimane. Il riconoscimento da parte dei modelli AI avviene su cicli di reindicizzazione e aggiornamento del grafo: in genere servono tre-sei mesi perché le entità si consolidino.
Nei settori YMYL il filtro di credibilità non è una penalizzazione, è un livello di ingresso. Superarlo non ti garantisce prime posizioni nelle risposte AI, ma è la condizione senza cui il lavoro di contenuto non ha effetto. È il terreno su cui poi poggia tutto il resto che ti racconto negli articoli di questa serie.
Dove si va da qui
Se questo principio ti è stato utile, i prossimi passi naturali sono gli articoli su entity audit periodico, local entity nel knowledge graph della tua città e entity-to-entity relationship mapping: insieme coprono il lavoro continuo che mantiene il tuo studio visibile nelle risposte AI mese dopo mese, non solo al primo go-live.
Quanto è visibile il tuo brand per le AI?
Scoprilo in 30 secondi con il nostro tool gratuito. 11 check automatici, risultati immediati.