Le regole del digitale stanno cambiando.
O sei visibile o sei fuori. Noi ti aiutiamo a raggiungere i clienti giusti — quando ti stanno cercando.
Contattaci ora →
Un limite di 2MB per i file HTML scatena il panico tra gli esperti SEO, ma i dati reali mostrano che la maggior parte dei siti web rientra ampiamente in questa soglia, aprendo il dibattito sulle motivazioni di Google.
La recente formalizzazione del limite di scansione a 2MB da parte di Google ha generato un allarme ingiustificato nel mondo SEO. In realtà, la mossa riguarda una porzione minima del web e riflette una spinta verso l'efficienza operativa, più che una penalizzazione. Un chiarimento tecnico che per la stragrande maggioranza dei siti non cambia assolutamente nulla. Nessuna apocalisse, solo un po' d'ordine.
Google taglia i viveri? il nuovo limite di 2MB che ha fatto tremare il web
Sarà capitato anche a te di leggere titoli allarmanti nelle ultime settimane: Google ha ridotto drasticamente il limite di scansione dei file da 15MB a soli 2MB.
Una notizia che, detta così, ha scatenato un bel po’ di preoccupazione tra sviluppatori e professionisti SEO, facendo pensare a un drastico cambio di rotta che potrebbe penalizzare i siti con pagine molto corpose.
Ma è davvero così?
Diciamocelo, la realtà è spesso meno drammatica di come viene dipinta.
I dati, quelli veri, raccontano una storia completamente diversa. Un’analisi dei dati di HTTPArchive getta acqua sul fuoco.
La dimensione mediana di un file sul web è di appena 33 kilobyte. Pensa che il 90% dei siti ha pagine che non superano i 155 kilobyte.
Per arrivare a 2 megabyte di puro testo, dovresti scrivere un romanzo da oltre due milioni di caratteri.
Insomma, per la stragrande maggioranza dei siti web, questo nuovo limite è più che sufficiente.
Ma è un vero taglio o solo un po’ di ordine in casa Google?
Qui la faccenda si fa interessante.
Quello che è successo non è tanto un taglio netto, quanto un chiarimento. Google ha riorganizzato la sua documentazione, che a volte è un vero labirinto, per fare una distinzione che probabilmente esisteva già da tempo.
Il limite di 15MB non è sparito del tutto: rimane valido per molti altri servizi di Google, come News, Shopping e Gemini. Il limite di 2MB, invece, è specifico per la Ricerca Google e riguarda i file e altri file di testo. Non si tratta di un’improvvisa decisione di “distruggere” le pagine lunghe, come ha giustamente osservato Breakline Agency.
Ma cosa significa questo in soldoni per i contenuti che superano questa soglia?
La distinzione fondamentale è tra scansione e indicizzazione. Googlebot potrebbe anche scaricare l’intero file, ma per decidere il posizionamento nei risultati di ricerca prenderà in considerazione solo i primi 2MB.
Tutto quello che viene dopo, in pratica, diventa invisibile ai suoi occhi per quanto riguarda il ranking.
Un dettaglio non da poco, che però, come abbiamo visto, riguarda una fetta piccolissima del web.
Efficienza o una mossa strategica? cosa c’è dietro la decisione
A questo punto la domanda sorge spontanea:
perché questa mossa, proprio ora?
Le speculazioni puntano tutte nella stessa direzione: efficienza e ottimizzazione dei costi. PPC.land ipotizza che dietro ci sia una spinta verso l’efficienza operativa, soprattutto in un momento in cui Googlebot ha un doppio lavoro da fare.
Non è più solo il “postino” della Ricerca; è diventato il principale fornitore di dati per i suoi sistemi di intelligenza artificiale, come le AI Overviews. Questo lo rende un’infrastruttura ancora più centrale, che l’azienda ha tutto l’interesse a rendere il più snella e veloce possibile.
Alla fine della fiera, per il 99,99% dei siti web, questo cambiamento non sposta assolutamente nulla. Si tratta di una di quelle notizie tecniche che creano molto rumore ma che, nella pratica, hanno un impatto minimo sulla vita di tutti i giorni di chi gestisce un sito. È una formalizzazione di limiti che, con ogni probabilità, erano già operativi da anni.
Quindi, per la maggior parte di noi, possiamo tranquillamente togliere la dimensione del file dalla lista delle cose di cui preoccuparsi per la SEO e concentrarci su ciò che conta davvero: creare contenuti di valore per le persone.

Più che un triage mi sembra l’ottimizzazione delle risorse cimiteriali: non si scelgono i sopravvissuti, si seppelliscono con metodo i superflui. Tanta solerzia nel preparare le fosse comuni digitali mi commuove.
@Letizia Costa Se è una fossa comune, mi chiedo solo cosa ci pianteranno sopra dopo.
@Sara Benedetti Un colpo di tosse, giusto. Prima ti misurano la febbre, poi ti presentano il conto per la cura. È solo il preludio di una sinfonia che già conosciamo.
@Benedetta Donati Più che un conto, mi sembra la preparazione del triage: ci stanno solo abituando all’idea che presto qualcuno verrà lasciato in corridoio, perché non ci saranno abbastanza letti per tutti e saremo noi a dover scegliere chi salvare.
@Carlo Bruno Esatto, un triage in piena regola. E la parte più comoda è che la scelta su chi staccare la spina la lasciano a noi. Che gentili.
Un gran polverone per quella che è una mossa di pura contabilità. Google fa pulizia nel suo giardino e il settore si straccia le vesti come per la caduta di un impero. Ma da quando l’efficienza dei loro sistemi è diventata una nostra preoccupazione?
@Sara Benedetti, la loro ‘contabilità’ è il colpo di tosse prima di togliere l’ossigeno dalla stanza. Non mi preoccupa il loro raffreddore, quanto la nostra imminente asfissia. Stanno solo lucidando le lapidi prima di annunciare i nomi dei defunti.
Sentendo parlare di tagli mi agito, come se Google volesse farmi chiudere baracca.
Meno un limite, più un messaggio. Si disegna un’idea di web più selettiva?
Tanto rumore per nulla. Google ci vuole più snelli, come per la prova costume.
@Paolo Fiore Lascia stare la dieta. Chi ha siti pesanti impara a programmare, no?