Le regole del digitale stanno cambiando.
O sei visibile o sei fuori. Noi ti aiutiamo a raggiungere i clienti giusti — quando ti stanno cercando.
Contattaci ora →
Un sistema di analisi comportamentale per proteggere i minori o per aprire la strada ai contenuti per adulti?
OpenAI ha introdotto un sistema di previsione dell'età su ChatGPT, ufficialmente per proteggere i minori. Sebbene la mossa risponda a critiche passate, appare più come un cinico pretesto per spianare la strada a futuri contenuti per adulti, sollevando dubbi sulla reale efficacia di una barriera facilmente aggirabile e sulla vera agenda della società.
OpenAI ora prova a indovinare la tua età: una mossa per la sicurezza o per altro?
OpenAI ha deciso di implementare in ChatGPT un modello di previsione dell’età. L’obiettivo dichiarato è semplice: identificare in automatico gli utenti con meno di 18 anni per applicare filtri e protezioni sui contenuti, una risposta diretta dopo anni di critiche feroci per aver esposto i minori a materiale sessuale, violento o altrimenti sensibile.
In pratica, il sistema analizza una serie di segnali legati al tuo comportamento e al tuo account — come la data di creazione, gli orari in cui sei più attivo e i tuoi schemi di utilizzo nel tempo — per stimare se tu sia o meno un minorenne. Se il modello ti etichetta come tale, ChatGPT restringe l’accesso a contenuti che riguardano violenza, sesso, autolesionismo e standard di bellezza irrealistici.
Ma come fa, esattamente, a capire se dall’altra parte dello schermo c’è un adulto o un adolescente?
La risposta è meno scontata di quanto pensi.
Un’analisi comportamentale che solleva dubbi
Il sistema non si basa su un singolo dato, ma su un’analisi complessa che, a detta loro, si fonda su ricerche accademiche e pareri di esperti sullo sviluppo infantile, tenendo conto di fattori come la percezione del rischio e l’influenza dei pari.
L’iniziativa arriva dopo una serie di incidenti piuttosto gravi, tra cui suicidi di adolescenti collegati all’uso del chatbot e un bug che permetteva di generare contenuti erotici per gli under 18.
D’altronde, il problema dei pregiudizi legati all’età nei sistemi di intelligenza artificiale è ben documentato: una ricerca ha evidenziato come le IA tendano a valutare più positivamente frasi contenenti aggettivi legati alla giovinezza rispetto a quelle con aggettivi legati alla vecchiaia, suggerendo un ageism sistemico.
E se un adulto viene erroneamente classificato come minorenne?
OpenAI ha previsto un percorso di verifica tramite un selfie da inviare al partner Persona per ripristinare l’accesso completo.
Questa mossa, presentata come uno scudo per i più giovani, sembra però essere solo la prima parte di una strategia molto più ampia.
Una strategia che guarda a un pubblico completamente diverso.
La vera meta: preparare il terreno per i contenuti per adulti
Questa infrastruttura di previsione dell’età, infatti, è il passo fondamentale che precede l’espansione di ChatGPT verso i contenuti per adulti. La società ha dichiarato apertamente di voler introdurre funzionalità dedicate, con un lancio previsto entro il primo trimestre del 2026.
In altre parole, queste barriere di sicurezza non sono solo una risposta alle critiche, ma un requisito necessario per poter poi aprire le porte a contenuti meno restrittivi senza incorrere in sanzioni.
Eppure, non tutti sono convinti.
Diversi osservatori, come si legge su Chosun, hanno già definito il sistema una “misura temporanea che può essere facilmente aggirata”, sollevando il dubbio che la sola analisi comportamentale non sia sufficiente a distinguere un minore da un adulto che vuole semplicemente eludere i controlli.
La domanda che resta aperta è se questo sistema sia una vera barriera di protezione o, più cinicamente, la chiave d’accesso che serviva a OpenAI per sbloccare il suo prossimo, e ben più controverso, capitolo di business.

L’etichetta della sicurezza è solo il primo passo di un imbuto di profilazione ben noto. Si traccia una linea nella sabbia non per proteggere, ma per classificare e assegnare un valore commerciale differente a ogni segmento di pubblico. La domanda è quale tariffa verrà applicata.
Maurizio Greco, la vera paura non è la tariffa, ma il report che la giustificherà.
Maurizio Greco, la tariffa è solo il corollario; il prodotto è un’esperienza su misura, dove i minori vedono le giostre e gli adulti il casinò.
La chiamano sicurezza, ma è la solita segmentazione per target. Un classico del marketing. Mi chiedo solo in quale scatola mi metteranno.
Sara Sanna, la classificazione è già avvenuta. Non è marketing, è archiviazione dell’anima digitale. A breve ci venderanno il nostro epitaffio personalizzato.
La favola della sicurezza è marketing. Stanno segmentando per monetizzare. Creano il recinto per i minori, così possono vendere agli adulti senza filtri. Un business plan pulito. Mi chiedo quale sia il vero ROI.
Un paravento per dividere il gregge. I minori da una parte, i portafogli paganti dall’altra. Il pastore sa sempre cosa sta facendo.
Un sistema che prova a indovinare l’età mi sa tanto di oroscopo, una roba poco seria per un tema così delicato. È un cerotto su una ferita aperta, fatto solo per aprire ai contenuti per adulti.
Beatrice, l’oroscopo almeno ti illude. Qui ti profilano e basta, con la scusa dei bambini. La chiamano protezione, io la chiamo schedatura di massa per vendere meglio. Quando smetteremo di essere i loro prodotti?
Ma dai, chiamarla sicurezza è una presa in giro. È un filtro che non ferma nessuno, serve solo a profilare meglio gli utenti. Si preparano il terreno per nuovi business, tutto qui. La solita operazione di facciata.
Elena, più che di business parlerei di un’erosione del controllo. Deleghiamo a una macchina il giudizio su chi siamo. È questo il futuro dell’interazione che vogliamo?