OpenAI contro il New York Times: come sta procedendo la battaglia su dati utenti e privacy

Anita Innocenti

Le regole del digitale stanno cambiando.

O sei visibile o sei fuori. Noi ti aiutiamo a raggiungere i clienti giusti — quando ti stanno cercando.

Contattaci ora →

Tra accuse di violazione del copyright e preoccupazioni sulla privacy degli utenti, la battaglia legale tra OpenAI e il New York Times solleva interrogativi sul futuro dell’IA e sulla gestione dei dati personali.

OpenAI, la società di ChatGPT, si oppone all'ordine del tribunale di conservare indefinitamente i dati degli utenti nella causa contro il New York Times. Cita preoccupazioni per la privacy, mentre il Times sostiene che i dati potrebbero rivelare violazioni del copyright. La battaglia solleva interrogativi sul bilanciamento tra protezione dei dati, diritto d'autore e futuro dell'IA, con milioni di utenti coinvolti.

OpenAI e il New York Times: scontro sui dati degli utenti, ma chi ci rimette davvero?

OpenAI, la società dietro ChatGPT, si trova nel bel mezzo di una battaglia legale con il New York Times e ora sta mettendo le mani avanti, opponendosi a un ordine del tribunale che le imporrebbe di conservare a tempo indeterminato i dati degli utenti di ChatGPT.

La motivazione ufficiale?

Una presunta minaccia alla privacy.

Brad Lightcap, il Chief Operating Officer di OpenAI, ha dichiarato che questa richiesta rappresenta “un conflitto fondamentale con i nostri impegni sulla privacy”. E non è finita qui, perché Sam Altman, il CEO, ha rincarato la dose con un tweet, definendo la richiesta “inopportuna” e un “cattivo precedente”.

Ma stanno davvero difendendo solo la nostra privacy, o c’è dell’altro che non ci dicono?

Il braccio di ferro legale: trasparenza o scudo per OpenAI?

Tutto questo trambusto nasce da una causa intentata dal New York Times nel 2023, con l’accusa, mica da ridere, che OpenAI abbia utilizzato senza permesso gli articoli del giornale per addestrare i suoi modelli di intelligenza artificiale.

Ora, un ordine di conservazione dei dati emesso a maggio 2025 vorrebbe che OpenAI tenesse traccia di tutte, e dico tutte, le interazioni degli utenti con ChatGPT.

OpenAI, però, non ci sta e ha presentato un doppio appello il 3 giugno, sia al giudice magistrato che alla corte distrettuale, secondo quanto riferisce Reuters,

Da un lato il Times sostiene che questi dati potrebbero svelare violazioni del copyright, dall’altro OpenAI si trincera dietro la politica sulla privacy e gli standard di settore sulla gestione dei dati.

Viene da chiedersi: questa mossa di OpenAI è una sincera preoccupazione per gli utenti o un modo per evitare di mostrare le proprie carte in una partita legale che si preannuncia complicata?

E cosa succede se questa diventa la norma per tutte le piattaforme di IA generativa?

L’impatto su di noi e il futuro dell’IA: cosa rischiamo davvero?

Parliamoci chiaro: questa faccenda riguarda direttamente circa 400 milioni di utenti settimanali di ChatGPT.

Certo, chi ha sottoscrizioni Enterprise ed Edu sembra essere escluso dalla mischia, mantenendo le protezioni “zero-data”. OpenAI assicura di aver implementato sistemi di archiviazione segregati, con accessi limitati e tracciati, continuando a usare standard di crittografia.

Ma la domanda sorge spontanea:

Possiamo davvero fidarci quando i nostri dati sono al centro di un simile tiro alla fune?

Questo scontro si inserisce in un contesto già caldo, con altre cause legali in corso, come quella della Authors Guild contro OpenAI per presunte violazioni di copyright su opere di narrativa, e quella di Raw Story Media. E non dimentichiamoci che Microsoft, come co-sviluppatore di ChatGPT, è coinvolta in contenziosi paralleli.

La situazione ricorda un po’ il caso Authors Guild contro Google del 2015, dove la scansione di libri fu considerata “fair use”, anche se, come sottolinea Press Gazette, l’addestramento dell’IA con materiale protetto da copyright è un terreno ancora tutto da esplorare dal punto di vista legale.

La corte distrettuale ora dovrà decidere se questa conservazione generalizzata dei dati sia eccessiva, come bilanciare i diritti di proprietà intellettuale con le necessità di sviluppo dell’IA e la validità delle accuse del New York Times sulla “memorizzazione” di contenuti.

Con Altman che promette di “continuare a combattere le richieste che indeboliscono le tutele della privacy”, la sensazione è che questa storia sia solo all’inizio e potrebbe riscrivere le regole del gioco per l’intero settore.

Ma se il tribunale desse ragione al New York Times, cosa ne sarebbe dei nostri dati e della libertà di innovazione dell’IA?

Anita Innocenti

Sono una copywriter appassionata di search marketing. Scrivo testi pensati per farsi trovare, ma soprattutto per farsi scegliere. Le parole sono il mio strumento per trasformare ricerche in risultati.

5 commenti su “OpenAI contro il New York Times: come sta procedendo la battaglia su dati utenti e privacy”

  1. Federico Bellini

    Dati degli utenti in ostaggio. Vedremo se il NYT la spunterà, ma il vero problema è chi controlla ‘sti benedetti algoritmi.

  2. Tommaso Verdi

    Giusta osservazione. La questione privacy è seria, però capisco anche le ragioni del NYT. Difficile dire chi abbia ragione, aspetto gli sviluppi.

    1. Mi sembra una questione spinosa per tutti. OpenAI teme di dover conservare troppi dati, il NYT vuole proteggere il suo lavoro. Alla fine, penso che un accordo sia la cosa più probabile, anche se non so a quali condizioni.

      1. Chiara Neri: Concordo. Un accordo è sensato per evitare spese legali infinite. Speriamo non si scarichino i costi sugli utenti.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Ricevi i migliori aggiornamenti di settore