OpenAI introduce la previsione dell’età su ChatGPT: sicurezza per i minori o via libera ai contenuti per adulti?

Anita Innocenti

Le regole del digitale stanno cambiando.

O sei visibile o sei fuori. Noi ti aiutiamo a raggiungere i clienti giusti — quando ti stanno cercando.

Contattaci ora →

Un sistema di analisi comportamentale per proteggere i minori o per aprire la strada ai contenuti per adulti?

OpenAI ha introdotto un sistema di previsione dell'età su ChatGPT, ufficialmente per proteggere i minori. Sebbene la mossa risponda a critiche passate, appare più come un cinico pretesto per spianare la strada a futuri contenuti per adulti, sollevando dubbi sulla reale efficacia di una barriera facilmente aggirabile e sulla vera agenda della società.

OpenAI ora prova a indovinare la tua età: una mossa per la sicurezza o per altro?

OpenAI ha deciso di implementare in ChatGPT un modello di previsione dell’età. L’obiettivo dichiarato è semplice: identificare in automatico gli utenti con meno di 18 anni per applicare filtri e protezioni sui contenuti, una risposta diretta dopo anni di critiche feroci per aver esposto i minori a materiale sessuale, violento o altrimenti sensibile.

In pratica, il sistema analizza una serie di segnali legati al tuo comportamento e al tuo account — come la data di creazione, gli orari in cui sei più attivo e i tuoi schemi di utilizzo nel tempo — per stimare se tu sia o meno un minorenne. Se il modello ti etichetta come tale, ChatGPT restringe l’accesso a contenuti che riguardano violenza, sesso, autolesionismo e standard di bellezza irrealistici.

Ma come fa, esattamente, a capire se dall’altra parte dello schermo c’è un adulto o un adolescente?

La risposta è meno scontata di quanto pensi.

Un’analisi comportamentale che solleva dubbi

Il sistema non si basa su un singolo dato, ma su un’analisi complessa che, a detta loro, si fonda su ricerche accademiche e pareri di esperti sullo sviluppo infantile, tenendo conto di fattori come la percezione del rischio e l’influenza dei pari.

L’iniziativa arriva dopo una serie di incidenti piuttosto gravi, tra cui suicidi di adolescenti collegati all’uso del chatbot e un bug che permetteva di generare contenuti erotici per gli under 18.

D’altronde, il problema dei pregiudizi legati all’età nei sistemi di intelligenza artificiale è ben documentato: una ricerca ha evidenziato come le IA tendano a valutare più positivamente frasi contenenti aggettivi legati alla giovinezza rispetto a quelle con aggettivi legati alla vecchiaia, suggerendo un ageism sistemico.

E se un adulto viene erroneamente classificato come minorenne?

OpenAI ha previsto un percorso di verifica tramite un selfie da inviare al partner Persona per ripristinare l’accesso completo.

Questa mossa, presentata come uno scudo per i più giovani, sembra però essere solo la prima parte di una strategia molto più ampia.

Una strategia che guarda a un pubblico completamente diverso.

La vera meta: preparare il terreno per i contenuti per adulti

Questa infrastruttura di previsione dell’età, infatti, è il passo fondamentale che precede l’espansione di ChatGPT verso i contenuti per adulti. La società ha dichiarato apertamente di voler introdurre funzionalità dedicate, con un lancio previsto entro il primo trimestre del 2026.

In altre parole, queste barriere di sicurezza non sono solo una risposta alle critiche, ma un requisito necessario per poter poi aprire le porte a contenuti meno restrittivi senza incorrere in sanzioni.

Eppure, non tutti sono convinti.

Diversi osservatori, come si legge su Chosun, hanno già definito il sistema una “misura temporanea che può essere facilmente aggirata”, sollevando il dubbio che la sola analisi comportamentale non sia sufficiente a distinguere un minore da un adulto che vuole semplicemente eludere i controlli.

La domanda che resta aperta è se questo sistema sia una vera barriera di protezione o, più cinicamente, la chiave d’accesso che serviva a OpenAI per sbloccare il suo prossimo, e ben più controverso, capitolo di business.

Anita Innocenti

Sono una copywriter appassionata di search marketing. Scrivo testi pensati per farsi trovare, ma soprattutto per farsi scegliere. Le parole sono il mio strumento per trasformare ricerche in risultati.

11 commenti su “OpenAI introduce la previsione dell’età su ChatGPT: sicurezza per i minori o via libera ai contenuti per adulti?”

  1. Maurizio Greco

    L’etichetta della sicurezza è solo il primo passo di un imbuto di profilazione ben noto. Si traccia una linea nella sabbia non per proteggere, ma per classificare e assegnare un valore commerciale differente a ogni segmento di pubblico. La domanda è quale tariffa verrà applicata.

    1. Maurizio Greco, la tariffa è solo il corollario; il prodotto è un’esperienza su misura, dove i minori vedono le giostre e gli adulti il casinò.

  2. La chiamano sicurezza, ma è la solita segmentazione per target. Un classico del marketing. Mi chiedo solo in quale scatola mi metteranno.

    1. Sara Sanna, la classificazione è già avvenuta. Non è marketing, è archiviazione dell’anima digitale. A breve ci venderanno il nostro epitaffio personalizzato.

  3. La favola della sicurezza è marketing. Stanno segmentando per monetizzare. Creano il recinto per i minori, così possono vendere agli adulti senza filtri. Un business plan pulito. Mi chiedo quale sia il vero ROI.

  4. Andrea Ruggiero

    Un paravento per dividere il gregge. I minori da una parte, i portafogli paganti dall’altra. Il pastore sa sempre cosa sta facendo.

  5. Beatrice Benedetti

    Un sistema che prova a indovinare l’età mi sa tanto di oroscopo, una roba poco seria per un tema così delicato. È un cerotto su una ferita aperta, fatto solo per aprire ai contenuti per adulti.

    1. Sebastiano Caputo

      Beatrice, l’oroscopo almeno ti illude. Qui ti profilano e basta, con la scusa dei bambini. La chiamano protezione, io la chiamo schedatura di massa per vendere meglio. Quando smetteremo di essere i loro prodotti?

  6. Ma dai, chiamarla sicurezza è una presa in giro. È un filtro che non ferma nessuno, serve solo a profilare meglio gli utenti. Si preparano il terreno per nuovi business, tutto qui. La solita operazione di facciata.

    1. Francesco De Angelis

      Elena, più che di business parlerei di un’erosione del controllo. Deleghiamo a una macchina il giudizio su chi siamo. È questo il futuro dell’interazione che vogliamo?

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Ricevi i migliori aggiornamenti di settore