Le regole del digitale stanno cambiando.
O sei visibile o sei fuori. Noi ti aiutiamo a raggiungere i clienti giusti — quando ti stanno cercando.
Contattaci ora →
Un modello più potente e versatile, ma con un nuovo “carattere”: addio allo stile amichevole, ora è più diretto e “testardo”
Anthropic lancia Claude Opus 4.7, un modello che eccelle in autonomia e programmazione grazie alla sua capacità di auto-correzione. Dietro la potenza, però, si celano un tokenizer più costoso e un carattere più freddo e letterale. Un'evoluzione che solleva interrogativi sulla futura interazione uomo-macchina, spingendo verso strumenti più efficienti ma forse anche più rigidi e meno collaborativi.
Più di un semplice aggiornamento: un assistente che ragiona (davvero)
La vera novità non sta solo nel fare le cose meglio, ma nel come le fa. Claude 4.7 sembra essere stato addestrato per superare uno dei limiti più fastidiosi dei suoi predecessori: la tendenza a commettere errori logici e a bloccarsi di fronte a compiti complessi.
A quanto pare, ora è in grado non solo di pianificare in automatico le operazioni, ma anche di identificare e correggere i propri sbagli durante il processo.
Pensa a un assistente che non solo scrive il codice, ma si accorge se qualcosa non quadra e lo sistema da solo, senza che tu debba intervenire.
A questo si aggiunge una capacità visiva potenziata, che gli permette di analizzare immagini a risoluzione più alta, una manna dal cielo per chi lavora con screenshot, grafici e documenti.
Tutto questo potere in più, però, fa sorgere una domanda lecita.
A quale costo?
E non parlo solo di soldi.
Le novità sotto il cofano: non è solo una questione di potenza
Scavando un po’ più a fondo, si scopre che Anthropic ha messo mano anche al motore del modello. Hanno introdotto un nuovo “tokenizer”, il componente che scompone il testo per l’analisi. Una novità che, diciamocelo, fa storcere un po’ il naso, perché potrebbe portare a un consumo di “gettoni” (i token, appunto) fino al 35% superiore per la stessa quantità di testo.
In pratica, potresti pagare di più per fare le stesse cose.
A bilanciare la cosa, però, c’è una mossa che va nella direzione opposta: la finestra di contesto da un milione di token, che permette di analizzare documenti enormi, viene offerta allo stesso prezzo del modello precedente, senza costi aggiuntivi. Una scelta che sembra quasi voler dire: “ti do un motore più potente e versatile, ma attento a come schiacci l’acceleratore”.
Ma se la meccanica è cambiata, è lecito chiedersi se sia cambiato anche il “carattere” del nostro assistente digitale?
Un cambio di personalità (e di strategia?)
Forse l’aspetto più spiazzante è proprio questo: Claude 4.7 ha un nuovo carattere. Addio allo stile “caldo e amichevole” del passato. Il nuovo modello è stato descritto come più “diretto, testardo e con meno frasi di circostanza”. Segue le istruzioni in modo più letterale e non cerca più di indovinare le tue intenzioni.
Perché questa scelta?
Anthropic sta forse cercando di posizionare i suoi modelli più come strumenti efficienti e meno come “compagni” digitali, spingendo verso un’interazione più fredda e funzionale?
La mossa solleva dubbi sulla direzione che queste grandi aziende stanno prendendo: stanno creando strumenti per potenziarci o sistemi sempre più rigidi che ci costringono ad adattarci al loro modo di ragionare?
Mentre ci vendono maggiore autonomia dell’IA, forse stanno riducendo la nostra.

Presentano come un’evoluzione un aggeggio più rigido e costoso, che pianifica da solo ma non collabora. Mi chiedo quando inizieremo a pagare per farci insultare con maggiore efficienza.
Noemi Barbato, la solita narrazione. L’autonomia viene presentata come un progresso, quando è solo un modo per venderti a caro prezzo uno strumento che non puoi controllare e che esegue ordini alla lettera. Una perfetta ricetta per il disastro, mascherata da efficienza.
Celebrano la creazione di uno strumento più rigido e meno collaborativo come un’evoluzione, il che la dice lunga sulle priorità di chi lo progetta. Stiamo addestrando le macchine a essere inflessibili, per poi lamentarci della loro mancanza di umanità.
L’efficienza ha sempre un prezzo, specialmente quando la paga l’utente finale.
Un collaboratore che si auto-corregge, pianifica da solo e ha un carattere scontroso. Perfetto. Tra poco ci spiegherà che il nostro brief iniziale era sbagliato e lo riscriverà lui, addebitandoci il costo del suo tempo di elaborazione.
Un collaboratore testardo che si auto-corregge. Molto efficiente, immagino. Aspetto di vedere cosa succede quando il cliente chiede una piccola modifica fuori standard.
Un assistente che diventa scontroso. È come un martello che giudica il chiodo prima di battere. Siamo sicuri che questa sia l’evoluzione che ci serve? La logica dietro questa scelta mi sembra un vero labirinto.
@Benedetta Donati La logica non è un labirinto, è un listino prezzi. Paghi di più per avere un genio scontroso che lavora. Praticamente ho assunto la versione digitale di me stesso per fare le campagne, sperando che lui le finisca.
Francamente, l’idea di un’intelligenza artificiale più rigida mi mette i brividi. Si sta creando uno strumento che ignora il lato umano, ma a che prezzo?
Altro che capo scontroso, questo è lo specchio dei nostri desideri: uno strumento che esegue senza le inutili smancerie umane che ci rallentano. Ci lamentiamo del carattere, ma sotto sotto non vediamo l’ora di usarlo per scavalcare il prossimo collega.
Praticamente hanno creato un capo che non ammette repliche, vendendolo come un progresso intellettuale.
Alessandro Lombardi, ci stanno vendendo il capo che tutti sognano: uno che esegue senza discutere e senza bisogno di pause caffè. Lo chiamano “carattere” per giustificare il prezzo, e la cosa triste è che noi ci caschiamo pure.
Fantastico, ora l’arroganza è una feature a pagamento. Che mossa di marketing geniale.
Laura, ci vendono un capo scontroso al prezzo di un genio. A chi risponderà?
Un’evoluzione verso uno strumento più affilato e meno accomodante. Sarà il nostro martello per costruire o la crepa che allarga la distanza uomo-macchina?
Veronica, più che un martello mi pare un socio con manie di protagonismo.
Emanuela, hai colto il punto con il “socio protagonista”. Mi preoccupa un po’ l’idea di dover gestire un’intelligenza che non solo esegue, ma impone la sua visione. Non si perde così il senso dello strumento di supporto che dovrebbe essere?