Claude si ricorda di te: Anthropic introduce la memoria a lungo termine (stavolta per davvero!)

Anita Innocenti

Le regole del digitale stanno cambiando.

O sei visibile o sei fuori. Noi ti aiutiamo a raggiungere i clienti giusti — quando ti stanno cercando.

Contattaci ora →

Anthropic recupera il terreno perduto offrendo una memoria “a modo suo”, trasparente e controllabile, ma l’effettivo impatto sul mercato resta un’incognita

Anthropic ha dotato il suo chatbot, Claude, di memoria a lungo termine, allineandosi a ChatGPT e Gemini. Sebbene in ritardo, l'azienda punta sulla trasparenza e il controllo utente, permettendo di modificare o cancellare i ricordi dell'IA. La mossa mira a posizionare Anthropic come un'alternativa etica e sicura, cercando di superare il vantaggio dei competitor nel mercato dei chatbot.

Claude si ricorda di te: Anthropic gioca la carta della memoria (ma con un anno di ritardo)

Alla fine, con un po’ di ritardo, è successo.

Anthropic ha dotato il suo chatbot, Claude, di una memoria a lungo termine, una mossa che la mette finalmente in pari con i suoi principali avversari, ChatGPT e Gemini. Una funzionalità attesa, quasi dovuta, che arriva però con un tempismo che fa riflettere: OpenAI ha introdotto la memoria a febbraio 2024, seguita a ruota da Google.

Anthropic arriva oggi, con quasi un anno di ritardo.

La domanda, quindi, non è tanto cosa hanno fatto, ma come lo hanno fatto e se questo ritardo sia servito a partorire qualcosa di realmente diverso.

Claude ora ricorda, ma a modo suo

La nuova funzione di memoria, in fase di rilascio per gli abbonati Max e Pro, permette a Claude di conservare informazioni e contesto tra una conversazione e l’altra. Niente più spiegazioni ripetute o la necessità di ricominciare da capo ogni volta.

Fin qui, niente di nuovo sotto il sole.

La vera differenza, o almeno quella che Anthropic sta cercando di spingere, sta nel controllo concesso all’utente. A differenza dei sistemi più “opachi” della concorrenza, Claude ti mostra esplicitamente cosa ricorda e ti permette di cancellare o modificare questi ricordi usando il linguaggio naturale, come descritto nell’annuncio ufficiale di Anthropic.

Una trasparenza che, sulla carta, suona bene.

Ma è questo che sposterà davvero gli equilibri del mercato?

Una mossa per non restare indietro (o c’è di più?)

Diciamolo senza troppi giri di parole: Anthropic arriva tardi, e nel mondo della tecnologia arrivare tardi significa perdere utenti.

La memoria in un chatbot non è solo una comodità, come osserva The Verge, è un potentissimo strumento di lock-in: più un utente investe tempo a “insegnare” le proprie preferenze a un’IA, più diventa difficile per lui cambiare piattaforma e ricominciare da zero.

Anthropic sembra saperlo bene, tanto da aver introdotto una funzione per importare memorie da ChatGPT o Gemini, quasi a voler tendere una mano a chi è già “incastrato” altrove.

Un tentativo di rassicurare gli utenti o la semplice ammissione che, per convincerli a salire a bordo, bisogna prima facilitargli la fuga?

Trasparenza e controllo: la vera posta in gioco?

E qui arriviamo al punto che Anthropic sta sbandierando come il suo vero asso nella manica: la sicurezza e il controllo. Oltre alla gestione granulare dei ricordi, è stata implementata una memoria “a compartimenti stagni” (project-scoped), che impedisce a Claude di mescolare informazioni tra contesti lavorativi diversi. L’azienda assicura di aver condotto test di sicurezza approfonditi per evitare che la memoria possa rafforzare schemi di pensiero dannosi o essere usata per aggirare le barriere di sicurezza del sistema.

Ma la domanda resta: questo livello di controllo è una vera garanzia per l’utente o una mossa di marketing per posizionarsi come l’alternativa “etica” in un mercato dominato da giganti ben più spregiudicati?

Anita Innocenti

Sono una copywriter appassionata di search marketing. Scrivo testi pensati per farsi trovare, ma soprattutto per farsi scegliere. Le parole sono il mio strumento per trasformare ricerche in risultati.

20 commenti su “Claude si ricorda di te: Anthropic introduce la memoria a lungo termine (stavolta per davvero!)”

    1. Ovvio che si ricordano, ma a che prezzo, questa “memoria” controllabile è solo una scusa per raccogliere altri dati.

  1. Finalmente Claude si ricorda di noi, ma solo dopo un anno di ritardo. Ottimo, così ora l’IA saprà anche quanto siamo paranoici.

  2. Ma certo, la “memoria” artificiale. Come se non bastasse già tutto quello che ci rubano, ora vogliono pure ricordare tutto di noi? Che razza di progresso è questo?

  3. Danilo Graziani

    La memoria, un traguardo atteso. Ma questa corsa alla “coscienza” artificiale mi lascia un freddo addosso. Quanto tempo prima che i robot ci superino?

    1. Il ritardo di Anthropic è una palese insegna di affanno. Dalla trasparenza si attende una vera rivoluzione, non un mero palliativo.

  4. Ma certo, la “memoria” artificiale. Come se non bastasse già tutto quello che ci rubano, ora vogliono pure archiviare pure le nostre conversazioni più intime. Che tranquilli, eh.

    1. Emanuele Barbieri

      La memoria a lungo termine per Claude? Un’altra goccia nell’oceano di dati, ma almeno la trasparenza è un tenue conforto.

    2. Benedetta Lombardi

      Diciamo che Anthropic ci fa un bel regalo, ma con un anno di ritardo. La memoria AI, un po’ come le mie promesse di dieta, arriva sempre dopo.

  5. Angela Ferrari

    Grande mossa per Claude. La trasparenza sui ricordi è un plus non da poco. Vedremo se questo cambio di passo risulterà proficuo sul mercato. La competizione sale.

  6. Finalmente anche Claude si degna di ricordare. Chissà se il suo “ricordo” sarà più affidabile delle mie previsioni di mercato sui chatbot.

    1. Raffaele Graziani

      Ah, la memoria! Come una vecchia cassettiera di ricordi digitali, Claude apre i cassetti. Chissà se si ricorderà di me quando gli chiederò di riscrivere il mio ultimo report marketing, o se finirà tutto in un vortice di dati confusi.

    2. Finalmente Claude si ricorda di noi. Una novità gradita, sebbene non proprio un fulmine a ciel sereno nel settore. Aspettiamo di vedere se questa memoria “trasparente” cambierà veramente le carte in tavola.

    1. Mi pare che ci stiamo perdendo nella corsa alla memoria artificiale, come se fosse una gara a chi colleziona più figurine. Certo, l’idea di un assistente che si ricordi di me è allettante, ma non vorrei che questa “memoria” diventasse una gabbia dorata per i miei dati.

      1. Ma certo, la memoria artificiale! Ci voleva tanto a capire che anche i robot, per essere simpatici, devono ricordarsi di noi? Speriamo solo che non ci chiedano poi “come stai?” dopo averci spiato nel profondo. Un po’ di privacy, no?

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Ricevi i migliori aggiornamenti di settore