Le tue infografiche hanno alt text come ‘grafico vendite’? Per l’AI non esistono

Hai un'infografica con dati di mercato, confronti o risultati originali? Se l'alt text dice solo "grafico vendite", per l'AI quei dati non esistono. Il modello non vede le immagini — legge solo il testo alternativo. Non è un lavoro enorme: riscrivere gli alt text di un'intera pagina richiede venti minuti. Ti spiego come trasformare ogni immagine in contenuto citabile, partendo da quello che hai già pubblicato.

C’e una verità scomoda che riguarda le immagini del tuo sito: l’AI non le vede. Non le interpreta, non le analizza, non ne estrae dati. Quando un sistema RAG processa la tua pagina, le immagini sono buchi. Spazi vuoti. L’unica cosa che il modello legge e il testo alternativo — quell’attributo `alt` che in molti compilano con “logo azienda” o “grafico risultati” e considerano un obbligo di accessibilità da sbrigare in fretta.

Il punto e che quell’attributo non e un obbligo da sbrigare. E contenuto. E l’unico ponte tra cio che l’immagine mostra e cio che l’AI riesce a capire. Se il ponte e vuoto o generico, per il modello l’immagine semplicemente non esiste — e con essa spariscono dati, relazioni, evidenze che avevi faticato a produrre.

Perché l’alt text e contenuto, non decorazione

Quando parlo di alt text con i miei clienti, la reazione più frequente e “si, lo mettiamo per l’accessibilità”. Ed e vero: nasce come strumento per gli screen reader, per permettere a chi non vede l’immagine di capirne il contenuto. Ma il meccanismo che lo rende utile per uno screen reader e lo stesso che lo rende utile per un crawler AI: entrambi leggono testo, non pixel.

Un sistema RAG converte la tua pagina in testo piatto. Le immagini vengono sostituite dal loro alt text — o da nulla, se l’alt text manca. Questo significa che un’infografica con cinque dati chiave, se ha come alt text “infografica dati”, per l’AI contiene zero informazioni. Quei cinque dati non esistono nel testo che il modello processa.

Nel mondo della ricerca, il principio e chiaro. Volpini et al. nel 2026 hanno definito cosa succede quando il contenuto di una pagina viene reso esplicitamente leggibile:

“Enhanced pages transform opaque entity URIs into readable, structured information.”Volpini et al., 2026

“Readable, structured information” — e esattamente quello che un alt text ben scritto fa per un’immagine. Trasforma qualcosa di opaco (l’immagine, che l’AI non può decodificare) in informazione leggibile e strutturata. Senza questa trasformazione, il contenuto visuale della tua pagina resta opaco — e opaco, per un sistema di retrieval, significa inesistente.

Il problema dei documenti mal formattati

Potresti pensare che l’AI compensi in qualche modo. Che il modello capisca dal contesto cosa c’e nell’immagine. Ma non funziona così. Sempre Volpini et al. hanno misurato un dato che cambia la prospettiva:

“The agent provides substantial lift on poorly formatted documents.”Volpini et al., 2026

Tradotto in pratica: l’agente AI deve lavorare di più — e produce risultati meno affidabili — quando il documento non e ben formattato. Un alt text mancante o generico e un formato scadente. Il sistema non ha abbastanza contesto per capire cosa l’immagine aggiunge al discorso, e il risultato e che ignora quel pezzo di pagina o lo interpreta in modo approssimativo.

Al contrario, quando il documento e già ottimizzato — alt text descrittivi, struttura semantica chiara, contenuto esplicito — l’agente legge senza dover compensare. Il lift non serve perché non c’e nulla da recuperare. Questo non e un vantaggio marginale: e la differenza tra un contenuto che viene estratto con precisione e uno che viene scartato.

Come scrivere alt text che l’AI può citare

Qui arriviamo al pratico. La maggior parte degli alt text che vedo sui siti che analizzo sono di tre tipi: vuoti (nessun attributo alt, o alt=””), generici (“immagine prodotto”, “grafico”, “foto team”), o keyword-stuffed (“migliore-agenzia-seo-milano-consulenza-digitale”). Nessuno di questi funziona per l’AI. Il primo e il secondo non contengono informazioni utili. Il terzo contiene parole chiave, ma non descrive nulla — e un modello che legge “migliore-agenzia-seo-milano” non capisce cosa mostra l’immagine, capisce solo che qualcuno ha provato a infilare keyword dove non servivano.

Un alt text che funziona e una frase completa che descrive cosa mostra l’immagine nel contesto dell’articolo. Non e una keyword, non e un’etichetta — e una descrizione informativa che aggiunge contenuto reale alla pagina.

Qualche esempio concreto. Un grafico a barre che mostra l’andamento del traffico organico trimestre per trimestre: l’alt text non e “grafico traffico”, e “Grafico a barre che mostra la crescita del traffico organico da 12.000 a 34.000 sessioni mensili tra Q1 e Q4 2025”. Uno screenshot di un risultato AI che cita il tuo brand: non e “screenshot ChatGPT”, e “Screenshot della risposta di un modello AI alla query migliori consulenti SEO in Italia, dove il brand X compare come prima raccomandazione”.

La differenza e enorme. Nel primo caso l’AI vede una frase informativa con dati specifici — numeri, trend, periodo temporale. Può estrarla, può citarla, può usarla come evidenza in una risposta. Nel secondo caso vede due parole che non aggiungono nulla al contesto della pagina. E in un sistema dove la selezione del contenuto da citare dipende dalla densità informativa di ogni chunk, un alt text vuoto e un’occasione buttata via.

Aggarwal et al. nel 2025 hanno sintetizzato questo principio in modo diretto:

“We provide actionable guidance for practitioners, emphasizing the critical need to: (1) engineer content for machine scannability.”Aggarwal et al., 2025

“Engineer content for machine scannability” — progettare il contenuto perché sia scansionabile dalle macchine. L’alt text e uno degli strumenti più immediati per farlo. Non richiede ristrutturare il sito, non richiede competenze di sviluppo. Richiede riscrivere una riga di testo per ogni immagine. Ma quella riga di testo e la differenza tra un’immagine che esiste per l’AI e una che non esiste.

Il test che puoi fare in cinque minuti

Apri le cinque pagine più importanti del tuo sito. Tasto destro, ispeziona elemento, cerca gli attributi `alt` nelle immagini. Conta quanti sono vuoti, quanti dicono solo “immagine” o il nome del file, quanti contengono una frase completa che descrive il contenuto.

Se la maggior parte rientra nelle prime due categorie, stai perdendo contenuto citabile in ogni pagina. Non e un problema di accessibilità — e un problema di visibilità. L’AI sta processando le tue pagine e sta saltando ogni immagine perché non ha modo di capire cosa mostrano.

Un secondo check: prendi l’alt text di ciascuna immagine e leggilo fuori contesto, come se non vedessi l’immagine. Ha senso? Descrive qualcosa di specifico? Se leggessi solo quello, capiresti cosa c’e nell’immagine e che informazione aggiunge all’articolo? Se la risposta e no, quell’alt text non sta lavorando ne per l’accessibilità ne per l’AI. E se non funziona per uno screen reader, non funzionerà nemmeno per un crawler — il meccanismo di lettura e lo stesso.

Questo e un primo passo per individuare dove stai perdendo terreno. Ma la riscrittura sistematica degli alt text su un sito con centinaia di immagini, ciascuna con il suo contesto editoriale e il suo ruolo nella pagina, e un lavoro che richiede metodo e visione d’insieme — non basta una formula.

Il filo con gli altri contenuti multimodali

L’alt text e il punto di partenza, ma il problema e più ampio. Ogni contenuto non testuale del tuo sito — video, podcast, infografiche, diagrammi — ha lo stesso limite fondamentale: l’AI non lo vede se non lo rendi testo.

Ne parlo negli approfondimenti che ho scritto per aiutarti a coprire tutti gli angoli del contenuto multimodale. Le trascrizioni di video e podcast risolvono lo stesso problema per i contenuti audio e video. Le infografiche con testo parallelo affrontano il caso dei visual complessi che hanno bisogno di una versione testuale dedicata. Le didascalie informative ti mostrano come anche una riga sotto un’immagine può diventare un micro-chunk citabile. E i diagrammi come testo strutturato chiudono il cerchio sui flussi e gli organigrammi che oggi sono probabilmente invisibili al retrieval.

Il principio di fondo e sempre lo stesso: tutto cio che non e testo, per l’AI non esiste. E in un momento in cui la visibilità nelle risposte AI dipende dalla quantità e qualità del contenuto testuale che il sistema riesce a processare, lasciare le immagini senza descrizione e come pubblicare un articolo con i paragrafi censurati.

L’alt text e il primo intervento — il più semplice, il più immediato — per iniziare a rendere visibile cio che oggi e un buco nero nelle tue pagine. Non richiede redesign, non richiede migrazioni tecniche. Richiede guardare ogni immagine e chiederti: se qualcuno non potesse vederla, cosa dovrebbe sapere? La risposta a quella domanda e il tuo alt text. E ogni immagine che rendi leggibile e un pezzo in più di contenuto che può essere trovato, estratto e citato quando qualcuno fa la domanda giusta al motore AI.

Roberto Serra

Mi chiamo Roberto Serra e sono un digital marketer con una forte passione per la SEO: Mi occupo di posizionamento sui motori di ricerca, strategia digitale e creazione di contenuti.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Quanto è visibile il tuo brand per le AI? Analizza il tuo brand