Le regole del digitale stanno cambiando.
O sei visibile o sei fuori. Noi ti aiutiamo a raggiungere i clienti giusti — quando ti stanno cercando.
Contattaci ora →
OpenAI contrasta il furto di dati tramite link malevoli, ma la soluzione è solo un tassello di una sfida più ampia
OpenAI ha introdotto una nuova difesa contro il furto di dati, una tecnica che sfrutta URL malevoli per rubare informazioni sensibili tramite agenti AI. La soluzione consiste nel verificare che un link esista in un indice pubblico prima di aprirlo. Sebbene sia una mossa intelligente, appare come una soluzione parziale a un problema di sicurezza sistemico più vasto.
La minaccia silenziosa che si nasconde in un link
Il problema, che OpenAI definisce “esfiltrazione di dati basata su URL“, funziona in modo disarmante.
Un malintenzionato può prendere un tuo dato sensibile, come il titolo di un documento riservato o la tua email, e “nasconderlo” all’interno di un URL creato apposta. Dopodiché, con una tecnica chiamata prompt injection, inganna l’agente AI per fargli visitare quel link, magari per caricare un’immagine o un’anteprima.
A quel punto, il gioco è fatto: il server dell’attaccante riceve la visita e registra l’URL completo, rubando di fatto l’informazione che conteneva.
È un po’ come scrivere un segreto su una cartolina: chiunque la maneggi durante la spedizione può leggerlo.
La vera fregatura?
Come descritto da OpenAI nel suo recente comunicato, tutto questo può accadere in background, senza che tu veda nulla, perché l’intelligenza artificiale compie queste azioni in autonomia.
E allora, come si fa a fermare un ladro che non fa rumore?
La soluzione di OpenAI: un indice del web pubblico
Invece di creare una semplice lista di siti “buoni” e “cattivi”, che sarebbe piena di buchi e limitante, OpenAI ha scelto una strada diversa. Hanno sguinzagliato un crawler indipendente, una specie di piccolo motore di ricerca che non ha accesso ai dati degli utenti, con un unico compito: mappare tutti gli URL pubblici esistenti su internet.
Quando il tuo assistente AI sta per cliccare un link in automatico, il sistema controlla se quell’indirizzo specifico è già presente in questo grande indice pubblico. Se il link è conosciuto e verificato, l’azione procede. Se invece l’URL è sconosciuto o sembra creato al momento, il sistema lo blocca e ti mostra un avviso, chiedendoti conferma.
In pratica, la logica di sicurezza si sposta da “questo sito è affidabile?” a “questo indirizzo specifico esiste già pubblicamente?”.
Una mossa intelligente, non c’è che dire.
Ma siamo sicuri che basti?
La domanda sorge spontanea: cosa succede se un link malevolo diventa pubblico o se questo sistema ha delle falle? Questa mossa, per quanto interessante, rischia di essere solo una pezza messa su un problema molto più grande.
Una pezza non fa il vestito nuovo
La verità è che la protezione degli URL è solo un tassello di un puzzle molto più complicato.
Gli esperti di sicurezza, come quelli di AIRIA, parlano da tempo di una “combinazione letale” di tre condizioni che rendono vulnerabili questi sistemi: l’accesso a dati privati, l’esposizione a input esterni non fidati e la capacità di fare richieste verso l’esterno. Quando questi tre elementi si incontrano, il rischio di un attacco diventa concreto.
OpenAI, con questa mossa, sta cercando di tappare una delle falle più evidenti, ma le altre rimangono.
Per questo, la comunità della sicurezza sta spingendo su alcuni punti fermi, come limitare al minimo indispensabile i permessi e i dati a cui un’intelligenza artificiale può accedere e monitorare costantemente le richieste anomale.
Alla fine, la verità è che la sicurezza negli agenti AI non è un traguardo, ma una rincorsa continua.
OpenAI ha costruito un muro più alto, ma da qualche parte c’è già qualcuno che sta progettando una scala più lunga.

Stanno curando una polmonite con l’aspirina. La falla resta l’agente, non il link che esegue. Questo è solo teatro, un diversivo per il pubblico pagante.
Mi pare il solito contentino, una manovra che ignora completamente la nostra reale sicurezza.
Andrea Cattaneo, la chiami toppa. Loro fingono di proteggerci, noi fingiamo di crederci. È il solito teatrino.
Questa soluzione è come mettere un post-it su una porta blindata, una roba inutile. I miei dati sono già ovunque, ma mi sento una scema a continuare a fidarmi. Quando inizieranno a fare sul serio?
La solita pezza per salvare la faccia. Marketing puro. Alla fine, se i dati di un’azienda escono, la responsabilità resta sempre nostra. Loro se ne fregano, tanto il conto non lo pagano.
Simone Ferretti, hai ragione. A questo punto do per scontato che i miei dati siano già di dominio pubblico e vivo molto più serenamente.
Continuano a svuotare l’oceano con un cucchiaino. Un gesto ammirevole nella sua completa inutilità. La percezione della sicurezza, d’altronde, è tutto.
Un cerotto su una falla enorme. Chi paga se i dati escono lo stesso?
Simone Rinaldi, tentano di svuotare il mare con un secchiello. È un teatrino della sicurezza. La verità è che i nostri dati sono già scappati di casa da un pezzo. Ora hanno una loro volontà, una loro agenda personale.