Visibilità per piattaforma AI: perché una media aggregata ti fa sbagliare investimento

Il tuo brand compare nel 45% delle query su Perplexity e nell'8% su ChatGPT. Se guardi solo la media aggregata vedi "26%" e decidi di star andando bene. Stai guardando un numero che non esiste in nessuna realtà operativa. Ogni motore AI ha crawler diversi, indici diversi, pesi diversi — e la tua visibilità è cinque grandezze separate, non una. Senza disaggregare i dati per piattaforma, il budget GEO lo spendi alla cieca. Ti spiego come costruire la matrice in 45 minuti e cosa leggere per capire dove agire.

Ho tracciato un brand B2B italiano su cinque motori AI per quattro mesi consecutivi. I numeri di citazione, a fine periodo, erano questi: ChatGPT 45%, Perplexity 28%, Gemini 12%, Claude 8%, Copilot 7%. Medie che cambiano ogni mese, a volte anche di 10 punti. Se ti fermi al numero aggregato — “il brand compare nel 20% delle query AI” — stai guardando una fotografia sfocata che nasconde informazioni su cui decidere il budget.

Ti spiego perché la visibilità per piattaforma è la metrica che sta a monte di ogni investimento serio in GEO, e come misurarla senza strumenti da mille euro al mese.

Cosa vuol dire essere visibili “per piattaforma”

Ogni motore AI è un sistema diverso. ChatGPT usa un insieme di fonti e un modo di sintetizzarle che non è lo stesso di Perplexity, che a sua volta non è Gemini. Cambiano i crawler, cambia il peso dato alle citazioni esplicite, cambiano gli indici di base (alcuni pescano da Bing, altri da Google, altri da un mix).

Nel mondo della ricerca sui sistemi di recupero e grounding, il principio è documentato in modo ormai solido: due retriever addestrati su obiettivi diversi, o due modelli con prompt di sistema diversi, restituiscono set di fonti con sovrapposizione parziale, spesso sotto il 50%. Da questo segue che la tua visibilità non è una grandezza unica. Sono cinque grandezze, una per piattaforma, e vanno misurate separatamente.

Tradotto in pratica: puoi essere citato nel 70% delle query rilevanti su Perplexity e nel 10% su ChatGPT. La media dice 40%. Il 40% non esiste in nessuna realtà operativa — è un numero che non ti dice dove agire.

Perché sta a monte di tutte le altre metriche

Nei miei articoli precedenti ti ho parlato di metriche come AI Share of Voice e Query Coverage Rate. Sono KPI utili, ma se li calcoli su un pool aggregato di motori AI perdi il segnale più importante: la varianza tra piattaforme.

La varianza è il dato che ti dice dove la tua strategia funziona e dove no. Se compari bene su Perplexity ma male su ChatGPT, sei probabilmente forte in backlink da siti citation-worthy ma debole in riconoscimento di entità autore — ChatGPT pesa di più certi segnali, Perplexity altri.

Senza questa disaggregazione, il budget GEO lo spendi a caso.

Il test che puoi fare in 45 minuti

Ti servono tre cose: un foglio di calcolo, una lista di 10-15 query che un tuo potenziale cliente digiterebbe, e 45 minuti di tempo.

Prendi le query una per una e lanciale su tutte e cinque le piattaforme: ChatGPT, Perplexity, Gemini, Claude, Copilot. Per ogni piattaforma annota in una riga:

  • Citato con nome? sì/no
  • Citato con link attivo? sì/no
  • Posizione nella risposta: alto / medio / basso / non presente

Alla fine hai una matrice 15 query × 5 piattaforme. Conta le percentuali per colonna. Quella è la tua vera baseline.

Soglia di lettura binaria: se la differenza tra la piattaforma migliore e la peggiore supera i 20 punti percentuali, hai un problema di coerenza. Significa che un canale sta tirando il carro e gli altri no — e il giorno in cui quel canale cambia algoritmo, perdi visibilità di colpo.

Per tracciare le query nel tempo ti può servire Google Search Console (per vedere se Gemini/AI Overview ti pesca) e, per un controllo esterno dei segnali di brand che i motori AI usano, Google Trends. L’analisi vera, fatta con continuità, richiede strumenti professionali dedicati al monitoring AI — questi test sono un primo passo onesto, non un sostituto.

Il test che ho fatto io: quattro mesi, un brand, cinque piattaforme

Ti ho aperto l’articolo con i numeri, ora ti spiego il metodo così puoi giudicarli.

Il brand è un produttore del distretto biomedicale di Mirandola, in provincia di Modena — una di quelle PMI che esporta tecnologia medicale in mezzo mondo ma che su ChatGPT, a inizio tracciamento, compariva a malapena. Ho costruito un set di 22 query coerenti col loro cliente tipo (responsabili acquisti ospedalieri, distributori europei, ingegneri biomedici). Ho lanciato le stesse 22 query ogni quattro settimane per quattro mesi, sulle cinque piattaforme, sempre nello stesso giorno e fascia oraria, in sessioni non loggate.

Il risultato, a fine periodo, è quello che hai letto sopra: ChatGPT 45%, Perplexity 28%, Gemini 12%, Claude 8%, Copilot 7%. Ma il dato interessante non è il numero finale — è la variazione mese su mese. Claude è passato dal 2% al 14% e poi è sceso all’8%. Gemini è rimasto piatto. Perplexity ha oscillato tra 22% e 34%.

Limiti dichiarati: un solo brand, 22 query, quattro mesi. È un test indicativo, non uno studio. Ma il pattern “grande varianza tra piattaforme, grande varianza nel tempo sulla stessa piattaforma” l’ho visto replicato su altri clienti con settori molto diversi (produttori di componenti automotive nel bresciano, cantine di Montefalco in Umbria, boutique hotel in Ogliastra). Non è un caso isolato.

Gli errori che vedo più spesso

Quando un’azienda inizia a misurare la visibilità AI, i pattern sbagliati sono sempre gli stessi.

Usare una sola piattaforma come proxy di tutte. Il classico: “mi monitoro su Perplexity perché è quella che uso io”. Perplexity cita le fonti in modo esplicito ed è facile da leggere, ma la sua quota di mercato reale è una frazione di quella di ChatGPT. Stai guardando la piattaforma sbagliata per il tuo pubblico.

Misurare una volta e fermarsi. La varianza temporale sulla singola piattaforma è alta. Un test una tantum ti dà una fotografia che tra sei settimane potrebbe essere smentita. Serve cadenza mensile, minimo.

Ignorare Copilot perché “è poco usato”. Nel B2B Copilot è invece molto più presente di quanto ci si aspetti, perché integrato in Microsoft 365. Se il tuo potenziale cliente lavora in una grande azienda che usa Teams e Outlook, Copilot è la prima AI che incontra.

Confondere “citato” con “citato bene”. Essere nominato nel quinto paragrafo di una risposta lunga vale molto meno che essere nel primo. Una matrice senza il campo “posizione” perde metà del segnale.

Usare query troppo generiche. “Migliori produttori biomedicali” ti darà sempre nomi grossi e pochissimo segnale per una PMI. Le query che contano sono quelle del funnel medio-basso: “fornitori di valvole cardiache monouso distretto Mirandola”, “chi produce cateteri ECMO in Italia”, “alternative a [competitor leader] per dialisi”. Lì c’è il traffico vero che converte, ed è lì che la varianza tra piattaforme diventa visibile e azionabile.

Trattare Claude come trascurabile. Claude ha una quota piccola ma un’utenza ad alto valore: tecnici, legali, medici, ricercatori che cercano risposte affidabili. Nel B2B specialistico vale molto più del 8% che appare nei numeri grezzi. Se vendi a clienti professionali, tenerlo fuori dalla matrice è un errore di lettura, non di matematica.

Cosa fare concretamente

  • Definisci 15-22 query rappresentative del tuo ICP. Non le keyword SEO classiche: domande vere, lunghe, con intento comparativo o di shortlist.
  • Costruisci una matrice query × piattaforma × mese. Aggiornala ogni 30 giorni, stesso giorno del mese.
  • Per ogni piattaforma misura tre cose: presenza, link attivo, posizione nella risposta.
  • Confronta con i 3-5 competitor che l’AI cita nel tuo settore. Se su ChatGPT tu sei al 10% e il primo competitor al 60%, hai una direzione chiara di dove lavorare.
  • Decidi il budget GEO sulla base della piattaforma più debole, non della media. Se Gemini è il tuo buco, lavora sui segnali che Gemini pesa di più (presenza nel Knowledge Graph, schema organization, menzioni in fonti già indicizzate da Google).

Dove si aggancia tutto questo

La visibilità nelle risposte AI non è una metrica singola. È un vettore a cinque dimensioni, e ogni dimensione ti racconta una storia diversa sulla tua presenza digitale. Misurarla aggregata è come misurare la febbre di cinque persone facendo la media: il numero esiste, ma non ti aiuta a curare nessuno.

Negli articoli successivi di questa serie entro nel dettaglio di metriche specifiche per singola piattaforma: come leggere i dati di AI Overview in Search Console, come costruire una dashboard di tracking AI che disaggrega per motore, e come trasformare la matrice di visibilità in una scorecard mensile che puoi condividere col tuo team in due minuti.

La domanda operativa da portarti via è una sola: sai davvero dove ti cita l’AI, o stai guardando una media?

Quanto è visibile il tuo brand per le AI?

Scoprilo in 30 secondi con il nostro tool gratuito. 11 check automatici, risultati immediati.

Roberto Serra

Mi chiamo Roberto Serra e sono un digital marketer con una forte passione per la SEO: Mi occupo di posizionamento sui motori di ricerca, strategia digitale e creazione di contenuti.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Quanto è visibile il tuo brand per le AI? Analizza il tuo brand