Le regole del digitale stanno cambiando.
O sei visibile o sei fuori. Noi ti aiutiamo a raggiungere i clienti giusti — quando ti stanno cercando.
Contattaci ora →
Tra blocchi ai bot e cali di traffico, gli editori cercano un equilibrio impossibile per difendere il giornalismo di qualità dall’utilizzo indiscriminato dell’IA
L'editoria mondiale, stanca di vedere il proprio lavoro saccheggiato, ha dichiarato guerra all'IA bloccando i bot di addestramento. Nomi come il New York Times e la BBC si barricano per proteggere i contenuti, ma la mossa si rivela un'arma a doppio taglio: il traffico crolla. È una battaglia per la sopravvivenza con un finale ancora tutto da scrivere.
L’industria editoriale alza i muri contro l’IA
La guerra, neanche troppo fredda, tra i colossi dell’editoria e i giganti dell’intelligenza artificiale è entrata in una nuova fase.
La pazienza, a quanto pare, è finita.
Come riportato su Press Gazette, quasi l’80% dei principali siti di notizie in UK e USA ha messo un bel cartello di “divieto d’accesso” ai bot che rastrellano contenuti per addestrare gli LLM. Il motivo? Semplice: si sono stufati di vedere il loro giornalismo, costato fatica e investimenti, saccheggiato per addestrare modelli linguistici senza ricevere un centesimo in cambio.
Nomi come BBC, The New York Times e Wall Street Journal hanno tirato su le barricate, mentre una minoranza, tra cui Fox News e Politico, lascia ancora le porte aperte.
Ma la mossa non si ferma ai soli bot di addestramento. C’è un altro tipo di blocco, forse ancora più significativo, che sta mettendo in discussione il rapporto tra editori e piattaforme AI.
Non si tratta solo di impedire che i contenuti passati finiscano nei “cervelloni” degli LLM. Oltre il 70% di questi editori sta bloccando anche i crawler che recuperano informazioni in tempo reale per rispondere alle domande degli utenti, quelli che permettono ai vari ChatGPT di citare le fonti.
In pratica, stanno rinunciando volontariamente a potenziali visite provenienti dalle piattaforme AI, pur di non alimentare un concorrente che cannibalizza il loro stesso lavoro.
E quando si va a vedere chi sono i “respinti”, la lista è lunga: CCBot di Common Crawl è il più bloccato, ma anche i bot di Anthropic e GPTBot di OpenAI non se la passano bene.
La logica dietro questa decisione è ferrea, ma nasconde un rovescio della medaglia piuttosto amaro.
Il paradosso del traffico: bloccare l’IA per sopravvivere, ma a quale costo?
La logica degli editori è semplice: “Dov’è lo scambio di valore?”, si chiedono.
A differenza dei motori di ricerca tradizionali, che portano traffico, i chatbot riassumono e servono le notizie direttamente sulla loro piattaforma, disincentivando il click verso la fonte originale. È come se qualcuno leggesse il tuo libro e poi ne raccontasse il riassunto a tutti, gratis.
Tutto molto logico, se non fosse per un piccolo, doloroso dettaglio: bloccare questi bot ha un costo, e pure salato.
Uno studio che ha monitorato i 30 principali editori ha rivelato una verità scomoda: dopo aver implementato i blocchi, il traffico totale del sito è crollato del 23%, con una perdita del 14% di visite umane, come descritto da Hacks/Hackers.
Questo mette gli editori davanti a una scelta quasi impossibile:
lasciarsi “saccheggiare” per mantenere il traffico, oppure proteggere i propri contenuti perdendo una fetta consistente di visitatori?
Alcuni grandi nomi, dopo aver visto l’impatto negativo, hanno addirittura fatto marcia indietro. E come se non bastasse, questa strategia di difesa si scontra con una realtà tecnica che la rende tutt’altro che infallibile.
Una battaglia tecnica e legale con un finale ancora da scrivere
Il punto è che le direttive nel file robots.txt sono un po’ come un cartello “vietato calpestare le aiuole”: una richiesta gentile, non una legge.
Le aziende AI possono tranquillamente decidere di ignorarle, e spesso lo fanno. Senza contare, come ha scoperto l’IAB Tech Lab, i numerosi errori di configurazione che rendono questi blocchi di fatto inutili.
La partita si complica ulteriormente perché i modelli AI moderni non si addestrano una sola volta e basta. Hanno bisogno di “rinfrescarsi” la memoria continuamente per fornire informazioni aggiornate, il che significa che il rastrellamento dei dati è un’attività perpetua.
Di fronte a questa situazione, c’è chi invoca un’azione di forza collettiva, quasi uno sciopero generale: che tutti gli editori blocchino i bot contemporaneamente per dimostrare la loro forza.
Peccato che, quando si tratta di sedersi a un tavolo per creare regole condivise e pagamenti, alcuni dei nomi più grossi come OpenAI e Anthropic sembrino guardare da un’altra parte, a differenza di Google e Microsoft che, almeno formalmente, si sono presentati.
La situazione attuale sembra un braccio di ferro insostenibile. Da un lato gli editori, che non possono più permettersi di regalare il proprio lavoro. Dall’altro le aziende AI, che forse si renderanno conto che la pacchia dei dati gratuiti non durerà per sempre.
La domanda, a questo punto, non è se si arriverà a un accordo, ma quando e, soprattutto, a quali condizioni.

Difesa passiva, risultato scontato. Bloccano il futuro per salvare il passato. Un classico errore da manuale che vedo fare quasi ogni giorno.
Lamentarsi del saccheggio usando un modello obsoleto è ridicolo; invece di murare il giardino, dovrebbero imparare a coltivare qualcosa che valga la pena pagare.
@Letizia Costa Invece di creare nuovo valore, si difende quello vecchio con barricate inutili; una strategia che mi ricorda certi miei clienti prima del fallimento.
Chiudono la bottega per non far entrare i curiosi, poi si stupiscono se nessuno compra più i loro prodotti. Che visibilità si aspettavano?
@Renato Martino Una difesa che li rende invisibili. Il traffico crolla, l’isolamento aumenta. Questa reazione genera un futuro incerto, con un’informazione di valore chiusa in una fortezza. A cosa servirà, a quel punto, se nessuno potrà più trovarla?
Ergono fortezze per proteggere il deserto, lamentandosi poi che nessuno venga a visitarlo.
L’industria editoriale erige muri per difendere un tesoro, scoprendo solo dopo che il suo valore dipendeva dalle mappe che conducevano ad esso. Un paradosso di cui, da editore, non riesco a non sorridere.
Alzano muri contro l’IA e poi si stupiscono del crollo di visite. Come esperto CRO, è uno spettacolo affascinante. Quando impareranno a vendere porte?