Le regole del digitale stanno cambiando.
O sei visibile o sei fuori. Noi ti aiutiamo a raggiungere i clienti giusti — quando ti stanno cercando.
Contattaci ora →
OpenAI lancia la “Lockdown Mode” per ChatGPT, una risposta agli attacchi di prompt injection che mira a proteggere i dati sensibili limitando le funzionalità più esposte del modello.
OpenAI corre ai ripari contro i pericolosi attacchi di prompt injection lanciando la Lockdown Mode per ChatGPT. Una soluzione "fortezza" che limita le funzionalità in cambio di maggior sicurezza, ma che l'azienda stessa ammette non essere una cura definitiva. Più che una vera soluzione, sembra un tentativo di arginare un problema crescente, scaricando parte della responsabilità sull'utente.
OpenAI corre ai ripari: arriva la lockdown mode per ChatGPT
Stai usando ChatGPT in azienda?
Se la risposta è sì, probabilmente hai pensato a quanto sia potente, a come velocizzi il lavoro, ma forse hai lasciato in un angolo la questione sicurezza.
Diciamocelo, è un tema che spesso si affronta solo quando il guaio è già fatto.
OpenAI, a quanto pare, se n’è accorta e ha deciso di giocare d’anticipo, o forse, più realisticamente, di mettere una pezza a un problema che sta diventando sempre più serio: gli attacchi di prompt injection.
Si tratta di una tecnica subdola con cui un malintenzionato può “ingannare” l’intelligenza artificiale per farle sputare fuori dati sensibili o compiere azioni non autorizzate.
Una vulnerabilità non da poco, specialmente se usi l’AI per gestire informazioni riservate.
E la soluzione che hanno tirato fuori dal cilindro si chiama Lockdown Mode.
Ma di che si tratta, esattamente?
Lockdown mode: la risposta di OpenAI è blindare tutto?
Pensa alla Lockdown mode come a una modalità “fortezza”. È una funzione pensata non per tutti, ma per chi maneggia dati che scottano: dirigenti, team di sicurezza, chiunque in un’organizzazione sia un bersaglio appetibile.
Come riportato direttamente nell’annuncio ufficiale di OpenAI, attivandola si mettono le manette a diverse funzionalità di ChatGPT che potrebbero essere sfruttate per un attacco.
In pratica, si rinuncia a un bel po’ di cavalli del motore in cambio di una carrozzeria blindata. Niente più navigazione web in tempo reale (solo contenuti in cache), niente supporto alle immagini nelle risposte, stop ai download di file per l’analisi dei dati e altre limitazioni pesanti.
La logica è semplice: meno porte aperte, meno spifferi da cui possono entrare i ladri.
Certo, la domanda sorge spontanea: stiamo pagando per un’auto da corsa per poi doverla usare con il freno a mano tirato per sentirci al sicuro?
Ma limitare le funzioni non è l’unica mossa di OpenAI. Stanno anche iniziando a mettere delle etichette di “pericolo” su alcune delle loro creature.
Etichette “Elevated Risk”: trasparenza o un modo per mettere le mani avanti?
Accanto alla modalità blindata, l’azienda ha introdotto le etichette “Elevated Risk” (Rischio Elevato). In sostanza, alcune funzionalità particolarmente esposte, come gli strumenti di rete che permettono all’AI di interagire con il web, verranno segnalate con un avviso.
Una mossa che, sulla carta, punta alla trasparenza, per farti capire che stai usando uno strumento potente ma con delle possibili controindicazioni.
Eppure, il dubbio è legittimo.
È un atto di sincerità verso l’utente o un modo per dire “io te l’avevo detto”, scaricando di fatto una parte della responsabilità su chi usa lo strumento?
Quando un’azienda ti avverte che un suo prodotto è potenzialmente rischioso, ti sta proteggendo o si sta solo costruendo un alibi per il futuro?
È una domanda che vale la pena porsi, perché la sicurezza non dovrebbe essere un optional da attivare o un’etichetta da leggere, ma la base su cui si costruisce un servizio.
E, a dirla tutta, nemmeno la Lockdown Mode sembra essere la soluzione definitiva al problema.
Ma la toppa è più grande del buco?
La parte più interessante, e forse un po’ preoccupante, è che la stessa OpenAI ammette i limiti delle sue nuove misure.
La Lockdown Mode non previene tutti gli attacchi di prompt injection. Il suo scopo, infatti, non è impedire che l’istruzione malevola raggiunga l’intelligenza artificiale, ma piuttosto bloccare la fase finale, quella in cui i dati sensibili vengono inviati all’esterno.
In altre parole, il ladro potrebbe comunque entrare in casa, ma si spera che non riesca a uscire con la refurtiva.
Non proprio una garanzia di sonni tranquilli.
La stessa azienda definisce la sicurezza in questo campo “un problema di ricerca di frontiera e impegnativo”. Una frase che, tradotta dal linguaggio aziendale, suona un po’ come: “ci stiamo lavorando, ma la strada è ancora lunga e piena di incognite”.
La sensazione, quindi, è che si stia cercando di tappare le falle di una nave che è già in mare aperto, sperando che basti per la prossima tempesta.

La solita toppa, va bene. Intanto i dati aziendali restano al sicuro, no?
Dare al cliente le chiavi per chiudere la stalla quando i buoi sono già scappati non è sicurezza, è scaricare la responsabilità. Un vero artigiano costruisce una recinzione solida dall’inizio, non vende lucchetti extra.
Trasformare un difetto di progettazione in una “funzione di sicurezza” è un colpo da manuale. Ora, se i tuoi dati finiscono in piazza, la colpa è tua che non hai attivato il silenziatore.
Installare porte blindate su una casa di cartapesta è un’ottima metafora per questa “Lockdown Mode”. Un placebo per l’ansia aziendale che sposta l’onere della prova sull’utente, il quale paga per sentirsi al sicuro in una struttura intrinsecamente fragile.
@Emanuela Barbieri Un placebo è un prodotto. E i prodotti, semplicemente, si vendono.
@Federica Testa Esatto, e il cliente paga due volte: prima per il servizio, poi per metterlo in sicurezza. Alla fine ci lasciano con il cerino in mano, facendoci credere che sia una scelta.
Chiamarla “Lockdown Mode” è un’elegante mossa di marketing per mascherare una riduzione del servizio. Il vero dato da analizzare sarà quante aziende accetteranno di pagare per un prodotto volutamente menomato in nome di una sicurezza che resta comunque precaria.
@Nicola Caprioli Ci vendono la toppa facendocela pagare, mentre preghiamo che la falla non ceda.
Ci vendono il paradiso con un piccolo difetto: l’inferno è compreso nel prezzo.
@Sabrina Coppola Altro che inferno, è un test attitudinale. Se ti fregano i dati, sei fuori. Praticamente è la selezione naturale 2.0.
Ci costruiscono una casa con i muri di cartone e poi ci vendono la porta blindata. Così la sicurezza diventa una nostra scelta, non un loro dovere.
Mi sembra una mossa astuta: ti forniscono un servizio volutamente imperfetto per poi farti pagare per la sicurezza. È una forma di gamification del rischio aziendale, non trovate?
Invece di rinforzare il ponte, ci danno un giubbotto di salvataggio. La vera sicurezza si progetta, non si attiva con un interruttore a valle.
@Veronica Valentini Ti vendono un’auto senza freni e poi ti regalano il casco. La colpa, ovviamente, alla fine sarà sempre e solo la nostra.
Mi rassicura molto l’idea che la sicurezza dei dati aziendali dipenda da un interruttore gestito da altri. L’unica ‘modalità sicura’ è non usare certi strumenti per questioni sensibili, il resto è marketing.
L’idea che la sicurezza dei dati aziendali dipenda da una “modalità di blocco” mi terrorizza, perché suona come un’ammissione che il sistema di base sia un colabrodo. Praticamente ci vendono il problema e poi, a parte, la pezza per risolverlo.
Mettono una pezza inutile e se l’IA sbrocca la colpa è nostra. Geni.