Le regole del digitale stanno cambiando.
O sei visibile o sei fuori. Noi ti aiutiamo a raggiungere i clienti giusti — quando ti stanno cercando.
Contattaci ora →
Anthropic cambia approccio, offrendo maggiore controllo sui dati ai creatori, ma questa mossa solleva interrogativi sulle reali motivazioni e sull’impatto a lungo termine per i proprietari di siti web.
Anthropic segue la scia di OpenAI e Google, dividendo i suoi crawler per offrire un controllo più granulare ai proprietari di siti web. La mossa, che introduce bot specifici come ClaudeBot, sembra più una risposta strategica alle recenti cause legali per violazione del copyright che una genuina concessione verso una maggiore trasparenza nel settore dell'intelligenza artificiale.
Anthropic cambia le regole del gioco: più controllo (ma a quale prezzo?)
Diciamocelo, fino a ieri il rapporto tra chi crea contenuti e le intelligenze artificiali era un “tutto o niente”: o lasciavi la porta aperta ai loro crawler, permettendogli di saccheggiare dati per addestrare i modelli, oppure la sbarravi del tutto, rinunciando a qualsiasi tipo di interazione.
Ora Anthropic, l’azienda dietro a Claude, prova a cambiare le carte in tavola.
Ha annunciato di aver diviso i suoi “esploratori” del web, i crawler, in tre bot distinti, ognuno con un compito preciso. In pratica, hanno creato tre agenti diversi: ClaudeBot, che raccoglie dati per l’addestramento dei futuri modelli; Claude-User, che si attiva quando un utente di Claude chiede di cercare informazioni sul web; e Claude-SearchBot, che indicizza i contenuti per i risultati di ricerca interni.
Questo significa che tu, proprietario di un sito, hai finalmente un controllo più specifico.
Puoi decidere, ad esempio, di bloccare ClaudeBot per impedirgli di usare le tue parole per nutrire la sua intelligenza, ma allo stesso tempo permettere a Claude-User di accedere a una pagina per rispondere a una domanda diretta di un utente.
Una scelta granulare, come la definiscono loro, che sulla carta sembra un passo avanti verso la trasparenza.
Ma la domanda sorge spontanea: è una concessione genuina o una mossa strategica per calmare le acque?
Non dimentichiamoci che questa novità arriva dopo che Anthropic ha dovuto affrontare una causa da 1,5 miliardi di dollari per l’uso di libri piratati.
Forse, più che di generosità, si tratta di prevenzione.
Una mossa non così originale: la scia di OpenAI e Google
A dirla tutta, Anthropic non ha inventato nulla di nuovo. Sta semplicemente seguendo un percorso già tracciato da altri.
OpenAI, verso la fine del 2024, ha fatto una mossa quasi identica separando GPTBot (per l’addestramento) dagli altri suoi agenti. E ancora prima, Google aveva introdotto Google-Extended, un sistema che permette ai siti di escludere i propri contenuti dall’addestramento di Gemini pur rimanendo visibili nella ricerca tradizionale.
Si sta delineando un modello standard nell’industria, una reazione a catena che sembra più una risposta alle pressioni legali e di immagine che una vera e propria rivoluzione etica.
Anthropic si è anche premurata di rassicurare chi aveva già bloccato i suoi vecchi crawler, affermando che le vecchie regole verranno rispettate.
Un portavoce dell’azienda ha dichiarato: “Abbiamo configurato ClaudeBot… per rispettare qualsiasi direttiva robots.txt esistente… Questo per tentare di rispettare le preferenze dei proprietari di siti web, anche se non hanno aggiornato i loro file”.
Un gesto apprezzabile, certo, ma che non sposta il focus dal problema centrale: queste aziende stanno correndo ai ripari dopo aver agito per anni in una zona grigia, costruendo le loro fortune sui contenuti creati da altri.
Tutto questo ci porta a una domanda fondamentale: al di là delle dichiarazioni ufficiali, cosa cambia davvero per chi, come te, gestisce un sito web?
Cosa significa questo per te? le implicazioni concrete
La vera sostanza della notizia è questa: ora hai un livello di flessibilità che prima non esisteva.
Puoi fare una valutazione più strategica, decidendo se vale la pena permettere a Claude di usare i tuoi contenuti per rispondere alle domande degli utenti, magari sperando in un ritorno di visibilità, pur negando l’accesso per l’addestramento a lungo termine, che di fatto non ti porta alcun beneficio diretto.
È un’arma in più per gestire la tua proprietà intellettuale.
Ma siamo sicuri che questa distinzione sia sufficiente?
Permettere a un’AI di usare i tuoi contenuti per rispondere a una domanda diretta non è, in fondo, un’altra forma di addestramento, seppur mascherata e istantanea?
Il dibattito è aperto e complesso.
Certo, secondo l’indice di trasparenza di Stanford, Anthropic “segue le pratiche standard del settore”, ma sappiamo bene che lo “standard” in questo campo è ancora tutto da definire e spesso favorisce chi i dati li raccoglie, non chi li produce.
Questa mossa di Anthropic è un segnale, un piccolo passo in una partita molto più grande.
Un po’ più di controllo oggi, certo.
Ma la discussione sul valore reale del contenuto e su chi debba trarne profitto è appena iniziata.

Prima saccheggiano i dati, poi offrono un’opzione di blocco. Un ciclo prevedibile. È gestione della reputazione per limitare i danni legali. A chi giova realmente questo presunto controllo?