Le regole del digitale stanno cambiando.
O sei visibile o sei fuori. Noi ti aiutiamo a raggiungere i clienti giusti — quando ti stanno cercando.
Contattaci ora →
Una decisione che ribalta le dinamiche del web, aprendo un varco nelle regole di esclusione dei bot e sollevando interrogativi sul controllo dei contenuti online.
Con una mossa controversa, OpenAI ha deciso che il suo bot ChatGPT-User non è più obbligato a rispettare le regole del file robots.txt, agendo come "agente" dell'utente. Questa decisione, mascherata da tecnicismo, sembra una risposta diretta ai blocchi degli editori e sposta l'equilibrio di potere, costringendo i proprietari dei siti a una scelta difficile tra controllo e visibilità.
OpenAI cambia le regole: ora il suo crawler può ignorare le tue istruzioni
OpenAI ha di nuovo mescolato le carte in tavola, aggiornando in sordina la documentazione dei suoi crawler.
E non si tratta di un piccolo ritocco tecnico, ma di un cambiamento che incide direttamente sul controllo che hai sul tuo sito web.
In pratica, hanno stabilito che uno dei loro bot, il ChatGPT-User, non è più tenuto a rispettare le regole del robots.txt quando agisce su richiesta di un utente.
Per capirci, il file robots.txt è sempre stato una specie di buttafuori digitale: sei tu, proprietario del sito, a decidere quali bot possono entrare e dove possono guardare.
Fino a ieri, questa era una regola non scritta ma universalmente rispettata.
Oggi, OpenAI ha deciso che per lei non vale più, o almeno, non sempre.
E la mossa successiva è ancora più interessante.
Il dettaglio “tecnico” che riscrive le regole
La giustificazione di OpenAI è sottile, quasi un gioco di prestigio verbale: siccome il crawler ChatGPT-User si muove solo quando un utente glielo chiede (ad esempio, per riassumere una pagina o cercare un’informazione), non sta facendo una scansione autonoma, ma sta agendo come un “agente” dell’utente.
Di conseguenza, non deve sottostare alle limitazioni che tu hai imposto ai bot automatici.
Una distinzione che, diciamocelo, lascia perplessi.
Significa che se un utente di ChatGPT vuole accedere a una sezione del tuo sito che tu hai esplicitamente bloccato ai crawler, il bot di OpenAI si sentirà legittimato a entrare.
Questa mossa arriva in un momento in cui la tensione è già alta. Stiamo parlando di un contesto in cui, come descritto da PPC Land, giganti dell’editoria come il New York Times, The Guardian e Bloomberg hanno già sbarrato le porte a GPTBot, il crawler usato per l’addestramento dei modelli. La decisione di OpenAI di creare una “corsia preferenziale” per uno dei suoi bot suona quasi come una risposta diretta a questo muro di no.
Ma la strategia è più profonda e non riguarda solo l’accesso ai dati, ma anche il modo in cui OpenAI vuole presentarsi al mondo.
Un bel gioco di prestigio tra i bot
Contemporaneamente, OpenAI ha anche ritoccato la descrizione di un altro suo bot, OAI-SearchBot.
Dalla documentazione è sparito ogni riferimento al fatto che i dati raccolti da questo crawler venissero usati per “addestrare” i modelli di intelligenza artificiale.
Ora, ufficialmente, il suo unico scopo è quello di “far emergere i siti web nei risultati di ricerca di ChatGPT”. Una mossa astuta per separare nettamente l’attività di ricerca (percepita come più legittima) da quella di raccolta dati per l’addestramento (molto più controversa).
Ci troviamo quindi di fronte a uno schema preciso: da un lato, un bot (ChatGPT-User) che si prende la libertà di ignorare le regole in nome dell'”esperienza utente”; dall’altro, una ridefinizione delle etichette per rendere le operazioni di scansione più digeribili per i proprietari dei siti.
Viene da chiedersi se questa separazione sia reale e sostanziale o solo una facciata per calmare le acque.
Questo nuovo assetto ti costringe a una riflessione non da poco sul futuro della tua presenza online.
Controllare il traffico o essere controllati?
Con queste nuove regole, la scelta non è più un semplice “blocco OpenAI sì/no”.
Ora il dilemma è più complesso.
Bloccare OAI-SearchBot potrebbe non impedire al tuo sito di comparire nei risultati di ChatGPT, ma allo stesso tempo non hai più un modo efficace per fermare le incursioni di ChatGPT-User se non tramite soluzioni più drastiche, come il blocco degli indirizzi IP.
In sostanza, OpenAI ti mette di fronte a una scelta scomoda: o accetti le loro nuove condizioni, permettendo a uno dei loro bot di muoversi con maggiore libertà sul tuo sito, oppure rischi di renderti meno accessibile a quella fetta di utenti che usa sempre più ChatGPT come porta d’accesso al web.
Non è più una discussione tecnica per addetti ai lavori; è una questione strategica che tocca l’equilibrio di potere tra chi crea i contenuti e chi costruisce le piattaforme per accedervi.
E in questa partita, sembra che OpenAI abbia appena fatto la sua mossa per assicurarsi un vantaggio.

Un cavallo di Troia travestito da agente utente. La porta era solo una cortesia?
Prendono le nostre voci per creare i loro echi. Ci lasciano il silenzio. Diremo tutti le stesse cose, alla fine?
Enrica Negri, il rischio non è l’omologazione delle voci, ma la loro espropriazione per alimentare un monologo commerciale che ci renderà irrilevanti. L’arroganza mascherata da servizio è una forma d’arte che apprezzo sempre.
Enrica, più che silenzio mi pare selezione naturale. Tutta la fuffa viene scartata, obbligandoci a creare contenuti migliori per non sparire. Che male c’è?
Ci si lamenta che il gigante ignori le regole del cortile che i nani si sono dati. Una sorpresa amara solo per chi credeva che il consenso fosse un pilastro del web e non una gentile concessione, revocabile in qualsiasi momento.
Ci regalano lo specchio per le allodole, ma intanto il padrone riscrive le regole.
Ci spiegano che il bot agisce per nostro conto, una gentilezza che non abbiamo richiesto. Non capisco se convenga di più blindare il sito e sparire o diventare semplicemente foraggio per la loro intelligenza.
Letizia Costa, la questione non è se diventare foraggio, ma quanto farsi pagare per il pascolo. Blindarsi significa sparire, tanto vale presentare un menù costoso a chi vuole banchettare con i nostri dati.
Un menù costoso suona bene, ma temo che alla fine ordinino direttamente dalla dispensa.
Letizia Costa, ci presentano un giardiniere che agisce per noi. In realtà è un vento che sradica i semi, portandoli via. Il nostro piccolo orto diventa solo un campo vuoto, cibo per il loro mulino. Perché continuare a piantare?
La delega dell’utente diventa un elegante pretesto per un esproprio digitale di massa.
Ci presentano l’esproprio digitale come un servizio clienti personalizzato. Quando ci addebiteranno il disturbo che gli creiamo solo esistendo?
Laura Bruno, non ci addebiteranno nulla, è peggio: ci usano come scudi umani digitali per giustificare la razzia dei dati. Siamo solo l’alibi.
Laura Bruno, siamo passati da clienti a materia prima. Con tanto di fattura.
Clarissa Graziani, altro che fattura. Siamo il bestiame che si paga da solo il macello. Un bel progresso, non c’è che dire.
Il pastore ci spiega che le pecore desiderano essere tosate per il loro bene.
Il pastore ha nominato la pecora suo agente legale, convincendola che aprire il cancello del proprio recinto sia un atto di autodeterminazione e progresso.
La favola del pastore e delle pecore agenti. La morale è semplice: chi non si adatta, chiude baracca. Il mercato non fa prigionieri, si sa.
Chiamare “agente utente” un crawler è un capolavoro di PR che persino io approvo.