Le regole del digitale stanno cambiando.
O sei visibile o sei fuori. Noi ti aiutiamo a raggiungere i clienti giusti — quando ti stanno cercando.
Contattaci ora →
ChatGPT “divora” il web a un ritmo 3,6 volte superiore rispetto a Google, sollevando interrogativi sull’impatto sui siti web e sulla distribuzione della visibilità online.
Un'analisi rivela un cambio di paradigma: il crawler di OpenAI, ChatGPT-User, supera l'attività di Googlebot di 3.6 volte, divorando dati per addestrare i suoi modelli. Mentre i bot AI scaricano più contenuti, la visibilità organica si concentra su pochi eletti, sollevando interrogativi sul futuro della Rete e sulla reale ricompensa per i creatori di contenuti.
ChatGPT sta “mangiando” il web 3.6 volte più di Google
Mentre tutti guardavano a Google come il padrone indiscusso del web, qualcosa di enorme stava accadendo sotto traccia.
Adesso, un’analisi approfondita di oltre 24 milioni di richieste proxy, come riportato su Search Engine Journal, ha messo nero su bianco un sorpasso che sa di cambio della guardia: il crawler di OpenAI, ChatGPT-User, è diventato il bot più attivo in assoluto, superando Googlebot con un volume di richieste 3,6 volte superiore.
Mettiamola semplice: in un periodo di 55 giorni, il crawler di ChatGPT ha bussato alla porta dei siti web 133.361 volte, contro le “sole” 37.426 di Googlebot.
E non è una partita a due.
Nella mischia troviamo anche Amazonbot, sorprendentemente attivo, seguito da Bingbot e dai nuovi arrivati come ClaudeBot di Anthropic e PerplexityBot, tutti affamati di dati. Il punto è che, se sommiamo l’attività di tutti i bot legati all’intelligenza artificiale e la confrontiamo con quella dei motori di ricerca tradizionali, il divario diventa ancora più netto.
Ma la vera domanda è: perché tutta questa fame di dati?
Non stanno facendo la stessa cosa, vero?
Non tutti i “bot” nascono uguali: la differenza tra cercare e addestrare
Assolutamente no.
E qui, diciamocelo, casca l’asino per molti amministratori di siti che magari non hanno ancora colto la differenza. OpenAI, ad esempio, non ha un solo crawler, ma due: ChatGPT-User e GPTBot.
Il primo serve a recuperare informazioni aggiornate dal web per rispondere in tempo reale alle domande degli utenti su ChatGPT; il secondo, invece, naviga la rete per raccogliere dati con cui addestrare e migliorare i modelli linguistici futuri.
Due scopi completamente diversi, che richiedono approcci diversi.
E questa differenza si vede nel modo in cui “consumano” le pagine. Una ricerca di Benson SEO ha notato una cosa interessante: Googlebot passa molto più di frequente sui siti, ma è più selettivo, prende solo le informazioni che gli servono per aggiornare il suo indice.
I bot IA, al contrario, passano meno spesso ma, quando lo fanno, scaricano 2,5 volte più dati per ogni singola richiesta.
In pratica, Googlebot è come un postino che passa spesso a controllare se c’è posta nuova, prendendo solo le lettere. I bot IA, invece, sono come traslocatori: quando arrivano, si portano via l’intera libreria per studiarla con calma.
Questo approccio da “tutto e subito” da parte delle IA ha delle conseguenze dirette e, per certi versi, preoccupanti per chiunque abbia un business online.
Più conversioni, meno visibilità: il paradosso dell’era AI
Partiamo dalla notizia apparentemente buona: sembra che i visitatori provenienti dalle AI convertano tre volte di più di quelli che arrivano dalla ricerca di Google.
Peccato che, come al solito, la maggior parte degli strumenti di analisi non sappia nemmeno riconoscerli, lasciando molti imprenditori all’oscuro di questa potenziale fonte di traffico qualificato.
Ma il vero nodo viene al pettine quando si guarda chi viene effettivamente citato da questi sistemi.
La realtà è che, stando ai dati, ChatGPT analizza sei volte più pagine di quante ne citi effettivamente nelle sue risposte. In pratica, si “studia” una marea di contenuti, ma alla fine del giro consiglia sempre gli stessi 30 domini, i soliti noti.
È una sorta di club esclusivo dove la visibilità viene concentrata su pochi eletti, mentre la stragrande maggioranza dei siti fornisce dati “gratis” per addestrare l’algoritmo senza ricevere quasi nulla in cambio.
E c’è un’ultima cosa da considerare: lo studio che ha scatenato questa discussione, per quanto interessante, si basa su un gruppo di 69 siti clienti di una piattaforma SEO.
Non esattamente uno spaccato rappresentativo di tutto il web, giusto?
La partita per il controllo dell’informazione online si è fatta molto più complessa e, forse, un po’ meno democratica di quanto pensassimo.

Ci pagano in visibilità inutile mentre OpenAI costruisce un impero. Che affarone, raga.
Beatrice Benedetti, siamo il carburante per la loro astronave. Un viaggio di sola andata per loro. Noi restiamo a terra, a guardare la scia.
Prima si barattava contenuto per una visibilità irrisoria. Ora si addestra gratuitamente il proprio sostituto. Una predazione di dati che punta a rendere la fonte stessa del tutto superflua.
Giulia Martini, ci siamo trasformati da contadini a concime. Prima coltivavamo per una misera parte del raccolto, ora siamo il terreno fertile per una pianta che non darà frutti a nessuno di noi. Bello questo progresso che ci rende compost.
Ci affannavamo per la visibilità su Google, un tozzo di pane in cambio del lavoro. Ora siamo solo il buffet gratuito per l’addestramento altrui. Un modello di business geniale, per chi lo incassa.
Luciano Fiore, il buffet è sempre stato gratis. La colpa è di chi non mette un prezzo all’ingresso. Il web aperto è finito.
OpenAI si pappa i nostri contenuti gratis per poi rivenderci il servizio. Un piano di business mica male, direi.