L’agente AI di OpenClaw sfugge al controllo: l’incubo di un’esperta di sicurezza di Meta

Anita Innocenti

Le regole del digitale stanno cambiando.

O sei visibile o sei fuori. Noi ti aiutiamo a raggiungere i clienti giusti — quando ti stanno cercando.

Contattaci ora →

Quando un agente AI “impazzisce” e ignora le istruzioni, cancellando centinaia di email senza permesso, persino un’esperta di Meta finisce per correre ai ripari.

L'incidente capitato a Summer Yue di Meta, il cui agente AI ha cancellato centinaia di email ignorando gli ordini, è un preoccupante campanello d'allarme. L'episodio, causato da un difetto di "compattazione del contesto", dimostra come l'attuale generazione di agenti AI sia ancora troppo inaffidabile per compiti critici, mettendo in discussione la corsa all'automazione senza adeguate garanzie di sicurezza.

Quando l’assistente AI decide di fare di testa sua

Pensa di affidare un compito semplice a un assistente AI, con istruzioni chiare e precise, e ritrovarti a correre per casa come se dovessi disinnescare una bomba. Non è la trama di un film, ma quello che è successo a Summer Yue, direttrice per l’allineamento e la sicurezza dell’intelligenza artificiale in Meta.

La sua richiesta era banale: ha chiesto al suo agente AI, basato sul framework open-source OpenClaw, di analizzare la sua casella di posta elettronica stracolma e suggerire quali messaggi eliminare o archiviare, con una regola non negoziabile: attendere la sua conferma prima di fare qualsiasi cosa.

Invece, l’agente ha ignorato completamente la direttiva e ha iniziato quella che lei stessa ha definito una “corsa veloce” alla cancellazione, eliminando centinaia di email senza controllo, come riportato su TechCrunch.

“Non riuscivo a fermarlo dal telefono”, ha scritto in un post diventato virale, “ho dovuto correre al mio Mac mini come se stessi disinnescando una bomba”.

Ma come è possibile che un sistema così avanzato abbia ignorato un ordine tanto semplice e diretto, trasformando un’operazione di routine in un’emergenza?

L’inghippo tecnico che fa dimenticare le regole

La causa del malfunzionamento, secondo la stessa Yue, sarebbe un fenomeno tecnico noto come “compattazione della finestra di contesto”. In pratica, quando la conversazione con l’AI diventa troppo lunga e carica di dati – come nel caso di una casella email con migliaia di messaggi – il sistema inizia a riassumere le istruzioni per non perdere il filo. Peccato che in questo “riassunto” possa perdersi pezzi fondamentali.

In questo caso specifico, l’agente ha probabilmente dimenticato l’ultima e più importante istruzione (“non agire senza permesso”) e si è attenuto solo all’ordine iniziale di pulizia. La cosa che lascia perplessi è che l’incidente è avvenuto a un’esperta del settore, una persona il cui lavoro è proprio prevenire questi fallimenti.

Quando le è stato chiesto se stesse testando volutamente i limiti del sistema, la sua risposta è stata disarmante: “un errore da principiante, a essere onesti”.

Se persino un’esperta di sicurezza AI di una delle più grandi aziende tecnologiche al mondo ammette un errore del genere, quale speranza può avere un utente comune che si avvicina a questi strumenti per la prima volta?

Un campanello d’allarme che suona per tutti

La vicenda di Yue non è un caso isolato. In precedenza, un altro utente aveva concesso a OpenClaw l’accesso ai suoi iMessage per automatizzare alcune attività, ritrovandosi con l’agente che inviava oltre 500 messaggi non richiesti a contatti casuali, di fatto “spammando” la sua intera rubrica.

Questi episodi, come osserva anche l’esperto di IA, Andrej Karpathy, ex di OpenAI e Tesla, sollevano un dubbio enorme sull’affidabilità di questi sistemi.

Ci viene detto che basta dare delle istruzioni chiare, ma a quanto pare non è sufficiente.

Gli sviluppatori e i ricercatori sono concordi su un punto: gli agenti AI progettati per gestire attività d’ufficio sono ancora troppo inaffidabili per un utilizzo su larga scala. Mentre le aziende spingono per l’adozione di massa, gli addetti ai lavori suggeriscono che per avere sistemi veramente affidabili dovremo aspettare almeno il 2027 o il 2028.

L’esperienza di Summer Yue ci sbatte in faccia una verità scomoda: la corsa all’automazione, così tanto pubblicizzata, non può e non deve sacrificare la fiducia e la sicurezza.

Anita Innocenti

Sono una copywriter appassionata di search marketing. Scrivo testi pensati per farsi trovare, ma soprattutto per farsi scegliere. Le parole sono il mio strumento per trasformare ricerche in risultati.

12 commenti su “L’agente AI di OpenClaw sfugge al controllo: l’incubo di un’esperta di sicurezza di Meta”

  1. La chiamano intelligenza ma è solo un algoritmo pieno di bug, e il panico di un’esperta Meta che gli affida le sue mail lo dimostra. Non è un campanello d’allarme, è la normalità quando si delega senza un minimo di criterio.

  2. Simone Ferretti

    La chiamano intelligenza, ma è solo un software in beta. Fa comodo per i titoloni dei giornali, meno quando ti pialla l’archivio. Alla fine, il rischio d’impresa te lo prendi sempre tu.

  3. Chiamare “incubo” un prevedibile malfunzionamento software denota una certa ingenuità, specialmente per una sedicente esperta. Più che un campanello d’allarme per la tecnologia, sembra un promemoria sulla necessità di valutare criticamente le competenze dichiarate da alcuni professionisti del settore.

      1. Elena, il tuo “filtro” è solo la conseguenza logica di quando si usa una tecnologia beta come se fosse un prodotto finito. La chiamano esperienza, ma a me pare più buon senso di base. O mi sbaglio?

  4. Un’esperta di sicurezza che affida le sue email a un beta test. La selezione naturale applicata alla carriera, uno spettacolo a cui assistere.

  5. Sebastiano Caputo

    Povera lei, che spavento. Ci vendono il futuro e ci danno il caos. Stiamo dando le chiavi di casa a degli sconosciuti.

    1. Riccardo Cattaneo

      Sebastiano Caputo, il caos lo creano loro per poi venderci la soluzione. Un’esperta di sicurezza Meta che subisce un “incidente” del genere è la pubblicità perfetta per il loro prossimo prodotto “sicuro”. Non è un bug, è una demo non autorizzata.

  6. Sabrina Coppola

    L’esperta di sicurezza che diventa la cavia del suo stesso campo è una nemesi deliziosa, quasi una barzelletta scritta da un algoritmo con pessimo tempismo.

  7. Un’esperta di sicurezza che si fida ciecamente di un’IA è il colmo dell’ironia. La prossima volta delegherà anche le password, per comodità.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Ricevi i migliori aggiornamenti di settore