Le chat di ChatGPT (quelle condivise) finiscono su Google, scandalo privacy

Anita Innocenti

Le regole del digitale stanno cambiando.

O sei visibile o sei fuori. Noi ti aiutiamo a raggiungere i clienti giusti — quando ti stanno cercando.

Contattaci ora →

Un errore di progettazione che ha esposto dati sensibili degli utenti, mettendo a rischio la loro privacy e sollevando dubbi sulla sicurezza nell’utilizzo dell’IA

OpenAI ha disattivato la funzione di condivisione chat di ChatGPT dopo che migliaia di conversazioni private sono finite su Google. Dati sensibili, da strategie aziendali a dettagli personali, sono stati esposti. L'azienda ammette un errore progettuale, sollevando seri dubbi sulla sua gestione della privacy e sull'affidabilità dei suoi strumenti.

OpenAI fa marcia indietro: le chat di ChatGPT non finiranno più su Google

Ci risiamo.

Sembrava una buona idea, almeno sulla carta: permettere agli utenti di condividere le proprie conversazioni con ChatGPT, rendendole indicizzabili e quindi rintracciabili su Google. Un modo per far emergere contenuti utili, dicevano.

Peccato che, come spesso accade quando la fretta supera la prudenza, questa “genialata” si sia trasformata in un disastro per la privacy. OpenAI ha dovuto fare una rapida e goffa marcia indietro, disattivando la funzione e correndo ai ripari per cancellare le tracce.

Ma cosa è successo esattamente?

Il patatrac della privacy: cosa è finito online?

Te lo spiego semplice.

Con un semplice click su una casella, potevi rendere la tua chat con l’intelligenza artificiale un contenuto pubblico. Il problema è che in pochi, probabilmente, hanno capito fino in fondo le implicazioni di quel click.

Il risultato? Oltre 4.500 conversazioni sono finite su Google, accessibili a chiunque sapesse come cercarle.

E non parliamo di ricette per la torta di mele. Sono state trovate strategie aziendali, dati personali, nomi, cognomi e persino discussioni delicatissime su traumi e casi di molestie sul lavoro.

In pratica, un gigantesco data breach mascherato da funzionalità innovativa.

Davvero nessuno, nei piani alti di OpenAI, si era posto il problema che una cosa del genere potesse accadere?

La toppa peggio del buco? la versione ufficiale di OpenAI

Di fronte all’evidenza, è arrivata la dichiarazione ufficiale. Il responsabile della sicurezza di OpenAI, Dane Stuckey, ha ammesso che la funzione “ha introdotto troppe opportunità per le persone di condividere accidentalmente cose che non intendevano condividere”. Una frase che suona più come un’ammissione di colpa per una leggerezza progettuale che come una vera spiegazione.

La mossa, descritta come un “esperimento di breve durata”, lascia l’amaro in bocca.

Mentre il CEO Sam Altman, parla di un futuro in cui ChatGPT sarà il nostro “impiegato junior”, capace di gestire compiti complessi, la realtà dei fatti ci mostra un’azienda che inciampa su un aspetto fondamentale come la protezione dei dati dei suoi utenti.

C’è qualcosa che non torna in questa narrazione.

Come possiamo fidarci di affidare compiti sempre più delicati a un’IA la cui casa madre mostra una simile disinvoltura sulla privacy?

Quando il re è nudo: la scoperta e le conseguenze

A far scoppiare il caso è stata, come spesso accade, la segnalazione di un’osservatrice attenta. È stata infatti la scrittrice Luiza Jarovsky a sollevare il polverone su X, mostrando esempi concreti di materiale sensibile finito online.

La sua denuncia, ripresa poi da testate come Business Insider, ha innescato la reazione a catena che ha costretto OpenAI a intervenire.

Questo episodio, però, va oltre il singolo errore. Ci sbatte in faccia una verità scomoda: questi strumenti, che usiamo con sempre maggiore fiducia per lavoro, studio e persino sfoghi personali, operano secondo logiche che non sempre mettono la nostra sicurezza al primo posto.

La vera domanda, a questo punto, non è se un episodio simile si ripeterà, ma con quali modalità e con quale gigante tecnologico.

E soprattutto, saremo ancora disposti a chiudere un occhio in nome dell’innovazione?

Anita Innocenti

Sono una copywriter appassionata di search marketing. Scrivo testi pensati per farsi trovare, ma soprattutto per farsi scegliere. Le parole sono il mio strumento per trasformare ricerche in risultati.

8 commenti su “Le chat di ChatGPT (quelle condivise) finiscono su Google, scandalo privacy”

  1. Benedetta Lombardi

    Ah, la privacy! Sembra che anche l’IA abbia bisogno di un corso intensivo di “non mettere tutto in piazza”. Chi l’avrebbe mai detto?

  2. Veronica Valentini

    Ogni inciampo è un trampolino per una crescita più solida. Imparare dall’errore è la vera accelerazione.

  3. Beatrice Benedetti

    Ma dai, che figura di m… Pensare che l’IA fosse una cosa da figo e poi si lascia scoprir tutto, che figura di palta.

  4. Certamente, una fuga di dati così vasta e banale dimostra un’incauta disattenzione, quasi un autolesionismo digitale, per un’entità che dovrebbe invece ergersi a baluardo di sicurezza informatica, un paradosso che fa sorridere amaramente.

    1. Raffaele Graziani

      Che dire, sembra che l’entusiasmo per la condivisione abbia messo le ali al posto della prudenza. Una bella gaffe digitale, un po’ come dimenticare il portafoglio prima di uscire. La privacy, un concetto così… volatile.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Ricevi i migliori aggiornamenti di settore