OpenAI, l’aumento shock delle segnalazioni: cosa c’è dietro i numeri?

Anita Innocenti

Le regole del digitale stanno cambiando.

O sei visibile o sei fuori. Noi ti aiutiamo a raggiungere i clienti giusti — quando ti stanno cercando.

Contattaci ora →

Un’impennata di segnalazioni che solleva interrogativi sull’efficacia delle misure di sicurezza e sull’evoluzione dell’abuso con l’avvento dell’IA generativa

L'impressionante aumento delle segnalazioni di abusi su OpenAI, cresciute di 80 volte, solleva seri interrogativi. Sebbene l'azienda citi un potenziamento della moderazione, il dubbio è che le sue piattaforme stiano diventando un terreno fertile per la creazione di materiale illegale, soprattutto sintetico. La trasparenza non basta: la vera sfida è prevenire, non solo reagire dopo il danno.

I numeri, a volte, parlano più di mille parole.

E quelli che OpenAI ha messo sul tavolo per la prima metà del 2025 sono di quelli che fanno riflettere, e non poco. Parliamo di circa 75.027 segnalazioni di possibile sfruttamento di minori inviate al National Center for Missing & Exploited Children (NCMEC).

Per darti un’idea, nello stesso periodo del 2024 erano state 947. Un aumento di 80 volte.

Un balzo vertiginoso che, ovviamente, apre una serie di domande a cui non è così semplice dare una risposta.

Ma fermarsi qui sarebbe un errore.

La verità è che questa valanga di segnalazioni non è un caso isolato che riguarda solo OpenAI, ma la punta di un iceberg molto più grande e inquietante.

La versione di OpenAI: più bravi o solo più esposti?

Sentendo loro, il motivo di questa impennata è un mix di tre fattori: maggiori investimenti nella moderazione, nuove funzionalità che permettono di caricare immagini e, non da ultimo, un’esplosione degli utenti attivi su ChatGPT, quadruplicati rispetto all’anno precedente. In pratica, ci dicono che hanno più occhi puntati sulla piattaforma e strumenti migliori per scovare i contenuti illeciti.

Una spiegazione che suona plausibile, quasi rassicurante.

Forse troppo.

Perché se da un lato è positivo che vengano individuati più abusi, dall’altro sorge un dubbio legittimo: questo aumento è solo merito della loro bravura nel trovare il marcio, o è il marcio stesso ad essere aumentato in modo esponenziale sulla loro piattaforma? E se così fosse, le loro misure di prevenzione, di cui tanto si vantano, non stanno forse fallendo in partenza?

Il vero cambio di passo: l’abuso diventa sintetico

Qui la faccenda si complica, perché non stiamo più parlando solo del classico materiale criminale che circola da decenni.

Il vero cambio di passo, quello che sta mettendo in crisi l’intero sistema, è l’uso dell’intelligenza artificiale generativa per creare contenuti di abuso sintetici.

Materiale che non ritrae vittime reali, ma che è a tutti gli effetti illegale e dannoso.

Lo stesso NCMEC ha visto un aumento del 1.325% nelle segnalazioni legate all’IA generativa tra il 2023 e il 2024.

Questo significa che i malintenzionati stanno sfruttando la tecnologia per creare i loro orrori su richiesta, aggirando i sistemi tradizionali pensati per riconoscere immagini e video di abusi già noti.

Di fronte a questa nuova frontiera, la domanda sorge spontanea: le contromisure messe in campo sono all’altezza della sfida, o sono solo una pezza messa su una falla che si allarga a vista d’occhio?

La corsa agli armamenti tra promesse di sicurezza e zone d’ombra

OpenAI afferma di avere un arsenale di difese: sistemi automatici, modelli proprietari per scovare gli abusi, tecnologie che confrontano i contenuti con database di materiale illegale conosciuto e, ovviamente, revisori umani. Quando un account viene beccato, scatta il ban immediato e la segnalazione.

Sulla carta, tutto perfetto.

Ma la realtà, come sempre, è più complessa.

Gli stessi report di OpenAI ammettono che gli utenti trovano modi sempre più furbi per aggirare i controlli: non chiedono più direttamente di generare contenuti illeciti, ma usano il modello per giochi di ruolo, lo costringono a scrivere storie abusive o lo ingannano con richieste apparentemente innocue.

La trasparenza nel pubblicare questi dati è un primo passo, certo.

Ma non basta a fugare i dubbi.

La vera partita si gioca sulla capacità di anticipare le mosse dei malintenzionati, non solo di reagire dopo che il danno è stato fatto.

E su questo, il verdetto è ancora tutto da scrivere.

Anita Innocenti

Sono una copywriter appassionata di search marketing. Scrivo testi pensati per farsi trovare, ma soprattutto per farsi scegliere. Le parole sono il mio strumento per trasformare ricerche in risultati.

20 commenti su “OpenAI, l’aumento shock delle segnalazioni: cosa c’è dietro i numeri?”

  1. Quando i miei video fanno 80 visualizzazioni in più mi sento un re, qui parliamo di segnalazioni di abusi. Forse chiamarla una “vittoria della moderazione” è una mossa di marketing un tantino audace, non trovate?

    1. Andrea Ruggiero

      Andrea Gatti, hanno solo allargato la rete per pescare. Ora tirano su più spazzatura. La vera domanda è: chi continua a buttarla in mare?

    1. Isabella Riva, la tua diga che perde è perfetta. Trasformano la falla in un indicatore di performance. Quando inizieranno a riparare il buco?

  2. L’aumento delle segnalazioni è solo un dato. La vera metrica sarebbe prevenire il problema, non contarlo. Ma quella è più difficile da vendere agli investitori.

  3. Sebastiano Caputo

    Chiamano “trasparenza” una catastrofe. Il loro potenziamento è solo contare i danni che hanno creato. La coscienza è un foglio di calcolo.

  4. Silvia Graziani

    È fantastico che siano diventati dei maghi nel contare i danni che il loro stesso giocattolo genera, ma questa la chiamano trasparenza o è semplicemente una colossale presa per i fondelli?

    1. @Silvia Graziani Fatico a decifrare il messaggio: vantano un successo operativo comunicando un disastro numerico senza precedenti. È una nuova forma di gestione della crisi o semplicemente non sanno più leggere i loro stessi grafici?

  5. Benedetta Donati

    Il loro “potenziamento” è una toppa peggiore del buco. Si celebrano come becchini digitali, contando i danni che la loro creatura produce. Questa non è trasparenza, è una confessione mascherata da vittoria.

    1. Greta Silvestri

      Benedetta, l’idea dei becchini digitali è top. Si specializzano nel post-disastro. Marketing del macabro. Diventa quasi un vanto contare i propri fallimenti. Fa curriculum, immagino.

  6. Patrizia Bellucci

    Questo panico morale è il prevedibile costo di un’adozione di massa. La vera domanda è chi costruirà valore su queste inevitabili macerie umane.

  7. Hanno costruito la bomba e ora si vantano del contatore Geiger. Ogni alert è una vita, non una metrica. Stanno solo diventando bravi a contare i disastri che hanno generato.

  8. Sbandierano i numeri come un trofeo di caccia, ma la foresta l’hanno incendiata loro. Chissà quale sarà la prossima metrica di vanità.

      1. Chiara Barbieri

        @Angela Ferrari Questa non è trasparenza, è la logica del piromane-pompiere. Generano il problema e poi si vantano di aver contato i danni.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Ricevi i migliori aggiornamenti di settore