Le regole del digitale stanno cambiando.
O sei visibile o sei fuori. Noi ti aiutiamo a raggiungere i clienti giusti — quando ti stanno cercando.
Contattaci ora →
Questa accelerazione, che vede il bot di ricerca in tempo reale superare quello di addestramento, è particolarmente evidente nei settori della sanità e dei media, suggerendo un modello che attinge dal web “vivo” per maggiore precisione.
Dal lancio di GPT-5, OpenAI ha triplicato la sua attività di crawling, con un'impennata del bot di ricerca OAI-SearchBot. L'azienda ora setaccia il web in tempo reale, focalizzandosi sui settori sanità e media. Questa mossa solleva interrogativi sul futuro della ricerca e sul rapporto con i creatori di contenuti, trasformando OpenAI in un potenziale concorrente.
Il cambio di marcia: da addestratore a cercatore instancabile
Fino a poco tempo fa, i due principali bot di OpenAI, GPTBot (usato per l’addestramento) e OAI-SearchBot (usato per le ricerche in tempo reale), lavoravano quasi in tandem.
Ora la musica è cambiata.
Dopo il debutto di GPT-5, OAI-SearchBot ha registrato un’impennata del 350% nella sua attività, superando di slancio il “fratello” addestratore, che si è comunque accontentato di un aumento del 290%.
In parole povere, per la prima volta, OpenAI sta dedicando più risorse a cercare informazioni in tempo reale che ad addestrare il suo modello con dati pregressi.
Questo conferma quello che alcuni analisti avevano già ipotizzato: GPT-5 è stato progettato per attingere molto di più dal web “vivo” piuttosto che fare affidamento esclusivamente sulla sua memoria di addestramento.
Una mossa che serve, sulla carta, a fornire risposte più aggiornate e precise.
Ma la domanda sorge spontanea: quali settori del web stanno stuzzicando di più l’appetito insaziabile di questo nuovo crawler?
Sanità e media nel mirino: una fame di dati che non guarda in faccia a nessuno
Se gestisci un sito nel settore della sanità o dell’editoria, probabilmente hai notato un traffico anomalo.
Non è una coincidenza.
L’analisi mostra che l’attività di OAI-SearchBot è esplosa del 740% sui siti a tema salute e del 702% su quelli di media e publishing.
Un’enormità.
Perché proprio questi settori?
La spiegazione ufficiale di OpenAI è legata ai miglioramenti del modello: come descritto nella pagina di presentazione di GPT-5, il nuovo sistema ha ridotto del 45% le “allucinazioni” e drasticamente gli errori su domande mediche complesse.
Viene da pensare che, per raggiungere questa precisione, OpenAI abbia bisogno di attingere costantemente da fonti considerate autorevoli e verificate, proprio come quelle mediche e giornalistiche. In pratica, sta usando i contenuti di alta qualità prodotti da altri per rendere il suo strumento più affidabile, soprattutto in ambiti dove un errore può costare caro.
Una strategia comprensibile, ma che solleva un dubbio: questa enorme raccolta di dati serve solo a migliorare le risposte o sta alimentando un motore di ricerca parallelo che un giorno potrebbe competere direttamente con chi quei contenuti li crea?
Mentre l’azienda si vanta della precisione del suo nuovo modello, il confine tra ispirazione e sfruttamento si fa sempre più sottile.
Un gigante affamato su un web che si svuota? Il paradosso di OpenAI
E qui emerge un dato che fa riflettere. Mentre i bot di OpenAI scansionano il web come mai prima d’ora, l’uso diretto della sua piattaforma più famosa, ChatGPT, sembra mostrare segni di stanchezza. Un’analisi parallela suggerisce che il traffico generato da ChatGPT-User, il bot che si attiva quando un utente usa l’interfaccia, è in calo del 28% da dicembre 2025.
Come è possibile?
L’azienda triplica la sua fame di dati per servire risposte in tempo reale, ma gli utenti che la interrogano direttamente sembrano diminuire.
La spiegazione più comoda è che l’uso si stia spostando dalle chat dirette alle integrazioni tramite API in altre applicazioni.
Può essere.
Ma non si può escludere un’altra lettura: OpenAI sta costruendo un indice del web gigantesco e in tempo reale, una sorta di copia carbone di internet, per scopi che vanno ben oltre le semplici risposte di un chatbot.
Potrebbe essere la base per futuri prodotti “agentici” in grado di compiere azioni complesse, usando i dati del web come carburante.
Per chi crea contenuti, la questione è aperta: si sta contribuendo a migliorare uno strumento utile o ad alimentare il proprio principale concorrente di domani?

Raschiano via il nostro lavoro per poi rivendercelo in forma sintetica. Un modello geniale.
Il passaggio da addestramento a ricerca in tempo reale è un cambio netto. L’esperienza utente ne guadagna, ma a quale costo per le fonti originali? Si delinea una centralizzazione dell’informazione che penalizza i piccoli editori.