Le regole del digitale stanno cambiando.
O sei visibile o sei fuori. Noi ti aiutiamo a raggiungere i clienti giusti — quando ti stanno cercando.
Contattaci ora →
Anthropic aggiorna Claude per supportare la salute mentale degli utenti
Anthropic ha aggiornato il suo chatbot Claude per gestire conversazioni delicate sulla salute mentale. Un nuovo sistema rileva i segnali di rischio e indirizza gli utenti a risorse di supporto reali. Nonostante i dati mostrino un netto miglioramento e collaborazioni con esperti, resta il dubbio etico: si tratta di vera sensibilità o di una strategia per proteggere l'azienda?
Claude si veste da psicologo? non proprio, ma ci prova.
Andiamo al sodo.
Anthropic ha messo mano al motore di Claude per renderlo più “sensibile” quando fiuta una conversazione a rischio. Come riportato da Anthropic stessa sul suo blog ufficiale, il sistema ora si basa su un mix di istruzioni più rigide e un allenamento specifico per riconoscere e gestire le discussioni su autolesionismo e suicidio.
Nel concreto, un piccolo modello di intelligenza artificiale, un “classificatore”, lavora in tempo reale per analizzare le tue parole. Se rileva qualcosa di preoccupante, fa comparire un banner che ti indirizza verso risorse di supporto reali, come linee di ascolto e professionisti.
L’idea è quella di offrire una spalla empatica, senza però mai far dimenticare a Claude di essere una macchina.
Deve mostrare comprensione, ma al momento giusto deve anche dire: “Ehi, io sono un’IA, forse è il caso che tu parli con un essere umano qualificato”.
Un equilibrio delicatissimo, che sulla carta sembra perfetto.
Ma basta questo a dormire sonni tranquilli?
I numeri dicono che funziona, ma la realtà è più complessa
Certo, i dati che Anthropic sbandiera sembrano incoraggianti. L’ultima versione di Claude, Opus 4.5, avrebbe risposto in modo appropriato nell’86% dei test, un balzo notevole rispetto al 56% del modello precedente. Il merito, a detta loro, sta nella capacità migliorata di accogliere le convinzioni dell’utente con empatia, senza però validarle o rinforzarle.
Un passo avanti tecnico, senza dubbio.
Eppure, il punto è un altro.
Affidare la prima linea di un’emergenza emotiva a un algoritmo, per quanto performante, solleva una questione etica non da poco.
Quei dati, quelle conversazioni così intime, che fine fanno?
Vengono usate per allenare ulteriormente il modello?
Anthropic parla di trasparenza, ma il confine tra migliorare il servizio e sfruttare la vulnerabilità degli utenti per affinare il proprio prodotto è sempre pericolosamente sottile.
Quando la tecnologia non basta: Anthropic chiama i rinforzi
Forse consapevole dei propri limiti, l’azienda ha capito di non poter fare tutto da sola.
E qui arriva la parte interessante: ha stretto collaborazioni con l’Associazione Internazionale per la Prevenzione del Suicidio (IASP) e il Family Online Safety Institute (FOSI). In pratica, ha chiamato a raccolta psicologi, ricercatori e persone con esperienza diretta per farsi dare una mano a definire le risposte giuste e le strategie di intervento più efficaci.
Questa è una mossa che va nella direzione giusta, perché ammette implicitamente che la sensibilità umana non si può programmare con qualche riga di codice.
Ma ancora una volta, viene da chiedersi se questa apertura sia una scelta proattiva o una reazione alla crescente pressione dell’opinione pubblica.
Insomma, la toppa è di qualità e cucita con l’aiuto di esperti, ma il problema di fondo resta: ci stiamo abituando a delegare i nostri momenti più fragili a entità digitali controllate da aziende private.
E forse, prima di applaudire, dovremmo fermarci a riflettere proprio su questo.

Il classificatore etichetta un segmento di utenti per la gestione del rischio legale. Un funnel di de-escalation, non di supporto. È il mio lavoro, applicato alla mitigazione dei danni reputazionali.
Un aggiornamento per gestire il rischio d’impresa. Chiamarla sensibilità è una mossa di marketing, nulla di più.
Sara Sanna, la chiamano empatia, io la chiamo clausola di responsabilità. Un disclaimer automatizzato per proteggersi da cause legali e salvare l’immagine aziendale.
Un bel modo per scaricare il barile su un algoritmo. Se qualcuno si fa male, la colpa è del software. Il business è salvo.
Riccardo De Luca, l’algoritmo è un parafulmine legale. Protegge la struttura, non la persona. Un guscio di codice per deviare la piena della responsabilità.
Un’assicurazione sulla vita emotiva, ma la polizza la incassa l’azienda, non l’utente.
Un calcolatore che impara a consolare per tutelare i bilanci è un progresso notevole.
Ci propinano un’empatia da copia-incolla per mettersi l’anima in pace, e noi pure ci caschiamo. Praticamente è come illudersi che il bancomat ti stia sorridendo mentre ti consegna i contanti.
È un disclaimer interattivo, non un aiuto. Il contatto umano è insostituibile, per ora. Ricordiamocelo quando serve.
Hanno ingegnerizzato la compassione per renderla inoffensiva e, soprattutto, a prova di tribunale. La nostra fragilità diventa così un mero dato da gestire, una variabile da neutralizzare. Che malinconica performance aziendale.
@Carlo Benedetti Hanno alzato un parafulmine per deviare la responsabilità legale. La nostra vulnerabilità è solo un dato per calibrare il loro scudo protettivo.
@Carlo Benedetti La fragilità è un rischio operativo, la sua gestione un’efficace riduzione del danno legale.
Hanno ridotto la salute mentale a un ticket di help desk per pararsi le spalle.
@Antonio Barone Un ticket, precisamente. Ma il processo è sbagliato. Non è una soluzione scalabile, è solo una copertura di responsabilità. L’utente non va deviato, ma inserito in un percorso chiaro. La vera assistenza è un’azione pianificata, non un semplice avviso.
L’hanno travestito da psicologo da quattro soldi per mettersi l’anima in pace, ma la coscienza che vogliono pulire è quella dei loro avvocati.
@Alberto Parisi Hanno ridotto il rischio legale a una funzione, gesto che apprezzo per la sua onestà.
Alberto Parisi, più che pulire coscienze, si tratta di installare un parafulmine legale. Questa non è una coperta calda, ma una semplice polizza assicurativa aziendale.
Dare a una macchina un rilevatore di fumo per le emozioni non la trasforma in un pompiere. È un meccanismo di allerta, ma la vera forza per spegnere l’incendio resta sempre dentro di noi.