Googlebot si scatena: quando il “Controllore” mette KO un sito

Anita Innocenti

Le regole del digitale stanno cambiando.

O sei visibile o sei fuori. Noi ti aiutiamo a raggiungere i clienti giusti — quando ti stanno cercando.

Contattaci ora →

Googlebot impazzito: un “normale” attacco DDoS o un problema di comunicazione tra il motore di ricerca e i siti web?

Un sito basato su Next.js ha subito un vero e proprio attacco, non da hacker, ma da Googlebot stesso, che ha tentato di scansionare una singola pagina cancellata ben 5,4 milioni di volte in un mese, nonostante un codice 410. Questo "bombardamento" ha messo in ginocchio il server. Google, per bocca di John Mueller, ha definito il comportamento "normale", suggerendo soluzioni che, per il proprietario del sito, sono arrivate tardi.

Googlebot si scatena: quando il “controllore” ti mette KO

Ti è mai capitato di sentirti sotto assedio dal tuo stesso “alleato”?

Beh, è un po’ quello che è successo a un povero diavolo con un sito basato su Next.js, che si è visto precipitare nei ranking di Google.

La causa?

Nientemeno che Googlebot, il crawler del colosso di Mountain View, che ha deciso di prendere d’assalto una singola pagina cancellata del sito. Parliamo di ben 5,4 milioni di tentativi di scansione in soli 30 giorni su un URL che, peraltro, rispondeva con un chiarissimo codice di stato 410 (Gone), a indicare che la risorsa era sparita per sempre.

Questo bombardamento, come descritto da Search Engine Journal, ha avuto l’effetto di un vero e proprio attacco DDoS, mettendo in ginocchio il server e, di conseguenza, la visibilità del sito.

Su Reddit trovi tutta la storia

Una situazione che definire paradossale è dire poco, non trovi?

Ma cosa succede quando chi dovrebbe aiutarti a essere visibile diventa, di fatto, la causa dei tuoi problemi più grossi?

La “normalità” secondo Google: una pillola amara da ingoiare?

Di fronte a una situazione del genere, con il sito che affonda e il server che chiede pietà, ti aspetteresti una qualche forma di mea culpa, o almeno una spiegazione tecnica approfondita da parte di Google.

E invece no.

John Mueller, con la sua solita pacatezza, ha liquidato la faccenda come “comportamento normale”. Secondo lui, Google continua a ricontrollare per un tempo indefinito le pagine che un tempo esistevano, e se le richieste infastidiscono, beh, si può sempre bloccare la scansione tramite robots.txt. Il proprietario del sito, dal canto suo, aveva già provato a mettere una pezza con il codice 410 per due mesi, prima di ricorrere, disperato, al blocco via robots.txt.

Ora, diciamocelo chiaramente: può essere considerato “normale” un comportamento che, di fatto, mima un attacco informatico e danneggia attivamente un sito?

Viene da chiedersi se questa “normalità” non sia un modo un po’ troppo comodo per liquidare un problema che, per chi lo subisce, è tutt’altro che trascurabile.

Ma è davvero così semplice, o c’è dell’altro sotto la superficie che meriterebbe un’analisi più attenta?

Tra aggiornamenti “silenziosi” e server in tilt: chi paga il conto?

La verità è che questo episodio si inserisce in un contesto già piuttosto movimentato.

Pochi mesi prima, a febbraio 2025, Google aveva aggiornato gli intervalli IP del suo crawler, un cambiamento che aveva già mandato in tilt alcuni Content Delivery Network (CDN) che non avevano aggiornato tempestivamente le loro allowlist.

La ricercatrice Gianna Brachetti-Truskawa aveva notato come alcuni siti, specialmente quelli appoggiati a provider come Akamai, avessero iniziato a subire limitazioni nelle richieste o problemi di risposta del server, proprio perché le nuove firme IP di Googlebot venivano scambiate per traffico sospetto.

E non è la prima volta che si crea confusione tra crawler legittimi e attacchi: già nel 2020, un utente su un forum di Cloudflare raccontava di aver bloccato Googlebot scambiandolo per un DDoS.

Se a questo aggiungiamo che, secondo i dati di Qrator Labs, nel primo trimestre del 2025 gli attacchi DDoS sono aumentati a dismisura, capisci bene come la sensibilità verso traffici anomali sia ai massimi storici.

Per non parlare del fatto che, come sottolineano diverse guide sulla sicurezza e l’ottimizzazione, un downtime prolungato dovuto a eventi simili a un DDoS può avere conseguenze pesanti sulla crawlability e sulla visibilità organica.

Esistono, certo, approcci e strategie per tentare di arginare questi “eccessi di zelo” da parte dei crawler, come evidenziato da alcuni esperti del settore, ma la domanda di fondo resta:

È giusto che i proprietari di siti web debbano continuamente rincorrere e tamponare le “stranezze” operative di un gigante come Google, sobbarcandosi costi e grattacapi per comportamenti definiti sbrigativamente “normali”?

Forse, un po’ più di trasparenza e, perché no, di attenzione verso chi contribuisce a popolare la sua immensa libreria digitale, non guasterebbe.

Anita Innocenti

Sono una copywriter appassionata di search marketing. Scrivo testi pensati per farsi trovare, ma soprattutto per farsi scegliere. Le parole sono il mio strumento per trasformare ricerche in risultati.

2 commenti su “Googlebot si scatena: quando il “Controllore” mette KO un sito”

  1. Pazzesco! Mai sentita una storia simile. Googlebot “alleato” che distrugge il tuo sito? Da marketer, mi fa riflettere su come monitorare costantemente l’attività del crawler!

    1. Valentina Fontana

      Giulia Fabbri, verissimo! Un campanello d’allarme per noi che lavoriamo online. Prestare attenzione ai log è diventato vitale.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Ricevi i migliori aggiornamenti di settore