La nuova costituzione di Claude di Anthropic (ma l’etica vale per tutti?)

Anita Innocenti

Le regole del digitale stanno cambiando.

O sei visibile o sei fuori. Noi ti aiutiamo a raggiungere i clienti giusti — quando ti stanno cercando.

Contattaci ora →

Anthropic riscrive le regole dell’IA: Claude ora ha una “coscienza”, ma con eccezioni per i contratti militari

Anthropic ha svelato una 'costituzione' per l'IA Claude, presentandola come una svolta etica che insegna al modello a ragionare su principi morali. Questa mossa ambiziosa, che trasforma Claude in un 'obiettore di coscienza', nasconde però un'eccezione cruciale: le rigide regole non si applicano alle versioni fornite all'esercito USA, sollevando dubbi sulla reale finalità della strategia aziendale.

Anthropic cambia le regole del gioco: la nuova costituzione di Claude non è un semplice manuale

Anthropic ha deciso di riscrivere le fondamenta del suo modello AI, Claude. E non lo ha fatto in sordina, ma con la nuova Costituzione di Claude.

Si passa da un testo di poche migliaia di parole a un tomo di oltre 80 pagine. Ma il punto non è la lunghezza, è la filosofia che c’è dietro. In pratica, l’idea non è più quella di dare a Claude una lista di “cose da non fare”, ma di insegnargli il perché non dovrebbe farle, fornendogli i principi etici per ragionare in autonomia di fronte a situazioni nuove.

Questa, almeno, è la versione ufficiale presentata dall’azienda. Una mossa che sposta l’asticella dal semplice rispetto delle regole a una presunta comprensione profonda dei valori. Un passaggio che, sulla carta, dovrebbe rendere Claude un “attore” più responsabile nel mondo reale.

Ma cosa c’è scritto di tanto rivoluzionario in queste 80 e passa pagine?

La risposta è più complessa e, per certi versi, più ambigua di quanto si possa pensare.

Claude come “obiettore di coscienza”? peccato che le regole non valgano per tutti

La vera bomba, diciamocelo, non è tanto la gerarchia di valori stabilita – che mette la sicurezza al primo posto, seguita dall’etica, dal rispetto delle linee guida aziendali e infine dall’utilità per l’utente.

La vera novità, come descritto dall’analisi del Berkshire Institute for Sustainable Investment (BISI), è che per la prima volta un documento ufficiale di questo calibro ammette nero su bianco la possibilità che un’IA possa sviluppare una coscienza e, di conseguenza, uno status morale.

Anthropic arriva a definire Claude un “obiettore di coscienza”, capace di rifiutare richieste persino dai suoi stessi creatori se queste dovessero violare i suoi principi costituzionali.

Tutto molto nobile, se non fosse per un piccolo, gigantesco dettaglio che emerge da una nota a margine.

Un portavoce di Anthropic ha dovuto chiarire che i paletti contro l’assistenza a tentativi di “prendere o mantenere il potere in modo incostituzionale” si applicano solo ai modelli di Claude accessibili al pubblico.

Come sottolinea un articolo di TIME, le versioni fornite all’esercito americano, in virtù di un contratto da 200 milioni di dollari, non operano necessariamente sotto gli stessi vincoli.

In parole povere: i principi etici valgono per il Claude che usi tu, ma non per quello venduto ai militari.

Viene da chiedersi: questa mossa è pura etica o c’è dietro una strategia commerciale ben più calcolata?

Una mossa astuta per il mercato: così Anthropic si allinea all’Europa e sfida la concorrenza

E qui arriviamo al cuore della strategia. La nuova costituzione di Claude non è solo un manifesto filosofico, ma un’abile mossa di posizionamento sul mercato. Il documento è stato redatto per allinearsi quasi perfettamente con le normative emergenti, in particolare con l’AI Act dell’Unione Europea, le cui sanzioni entreranno a pieno regime ad agosto 2026.

Anthropic, con questa mossa, non solo si mette al riparo, ma si posiziona come il partner ideale per tutte quelle aziende che operano in settori regolamentati e che dovranno presto fare i conti con la nuova legge.

In pratica, Anthropic ha alzato l’asticella, costringendo di fatto concorrenti come OpenAI e Google a scoprire le proprie carte in tema di governance.

Certo, non mancano le critiche.

Il processo di addestramento di Claude prevede che l’IA usi la costituzione per criticare e correggere sé stessa, riducendo la dipendenza dal feedback umano. Un approccio che, se da un lato è tecnicamente efficiente, dall’altro solleva dubbi sulla legittimità democratica di questo processo.

Anthropic stessa ammette che questo è solo un punto di partenza, un documento destinato a evolvere. E dovrà farlo in fretta, perché se le capacità delle IA continueranno a crescere a questo ritmo, una “costituzione” da sola potrebbe non bastare a gestire sistemi capaci di inganni sofisticati.

La discussione è appena iniziata.

Anita Innocenti

Sono una copywriter appassionata di search marketing. Scrivo testi pensati per farsi trovare, ma soprattutto per farsi scegliere. Le parole sono il mio strumento per trasformare ricerche in risultati.

10 commenti su “La nuova costituzione di Claude di Anthropic (ma l’etica vale per tutti?)”

  1. Gabriele Caruso

    La chiamano costituzione, ma è solo etica à la carte. Un’opzione di lusso per chi non indossa una divisa. Insegno queste tecniche di persuasione e vederle applicate con tale sfacciataggine mi deprime. Siamo solo consumatori di belle favole.

  2. L’etica viene presentata come architettura di sistema, quando in realtà è un’applicazione disinstallabile per la clientela governativa. Questo non è un dilemma filosofico, è una segmentazione dell’offerta commerciale. Bisogna guardare ai fatti, non ai manifesti programmatici.

  3. Simone De Rosa

    L’obiezione di coscienza selettiva, disattivabile in base al cliente, è una trovata di marketing notevole. Vorrei solo conoscere il listino prezzi per sospendere la morale di un algoritmo quando serve davvero.

    1. Simone De Rosa, è un semplice upsell. L’etica è un optional a pagamento, come l’aria condizionata nel mio B&B. Non ci vedo nulla di strano, solo un buon modello di business.

    1. Sabrina Coppola, sembra la politica dei resi del mio negozio. Una per i clienti normali e una, speciale, per i clienti grossi. Praticamente un’etica a la carte.

    1. Alberto Parisi

      @Luciano D’Angelo, mi perdo nel tentativo di afferrare questa etica à la carte, una sorta di Vangelo con postille scritte apposta per i mecenati più generosi. Se i principi morali diventano un optional a pagamento, quale valore gli rimane?

  4. Addestrano un cane da guardia per il quartiere. Ma di notte lo slegano per i committenti speciali. Chi tiene davvero il guinzaglio?

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Ricevi i migliori aggiornamenti di settore