Le regole del digitale stanno cambiando.
O sei visibile o sei fuori. Noi ti aiutiamo a raggiungere i clienti giusti — quando ti stanno cercando.
Contattaci ora →
OpenAI punta su una “IA empatica” per supportare gli utenti più vulnerabili, deviando le conversazioni delicate verso modelli specializzati e introducendo strumenti di controllo parentale.
OpenAI mira a rendere ChatGPT più empatico nelle conversazioni delicate, impiegando un "router" intelligente e l'expertise di specialisti. L'introduzione dei controlli parentali protegge i giovani utenti. Il dibattito rimane: è un passo genuino verso l'umanizzazione dell'IA o una mossa strategica per migliorare l'immagine del colosso tecnologico?
Quando la macchina impara dagli umani
Per evitare di creare un sistema sordo alle complessità emotive, OpenAI ha coinvolto oltre 170 esperti di salute mentale e prevenzione delle crisi. Un lavoro mastodontico che, stando alla stessa società, ha permesso di ridurre le risposte inadeguate del 65-80% in queste conversazioni delicate. In sostanza, hanno preso il sapere di psicologi e professionisti e lo hanno usato per insegnare alla macchina come comportarsi.
Un passo avanti notevole, non c’è che dire.
Ma chi ci garantisce che questo enorme patrimonio di conoscenza non venga usato anche per altri scopi, magari meno nobili, legati al profilo degli utenti?
Questa collaborazione ha portato a miglioramenti concreti, questo è innegabile. Le risposte ora dovrebbero essere meno prescrittive e più orientate a suggerire percorsi di aiuto professionali, il che è un cambiamento di rotta fondamentale.
Ma mentre si lavora per rendere l’IA più “matura”, si apre un altro fronte, forse ancora più spinoso: come proteggere gli utenti più giovani e vulnerabili che usano questi strumenti ogni giorno?
Controlli parentali e nuove versioni: una toppa o una soluzione?
La risposta di OpenAI a questa esigenza si chiama “parental controls“, una serie di strumenti per i genitori che, finalmente, arrivano sulla piattaforma. I release notes ufficiali di ChatGPT confermano il rilascio di queste funzionalità, insieme a modelli più veloci ed efficienti come GPT-5 Instant e o3.
I genitori potranno quindi limitare l’accesso a certi tipi di conversazione e monitorare l’uso che i figli fanno del servizio. Era ora, verrebbe da dire. Una mossa quasi obbligata, vista la diffusione capillare di ChatGPT tra i giovanissimi.
Quindi, da un lato abbiamo un’IA che promette di essere più empatica e sicura, dall’altro strumenti di controllo che mettono la responsabilità nelle mani dei genitori. La direzione sembra quella giusta, ma la sensazione è che si stia ancora navigando a vista.
Queste misure basteranno a creare un ambiente davvero sicuro, o sono solo il minimo indispensabile per placare le critiche e continuare a espandere un business che si nutre, in fondo, delle nostre parole?

Certo, “umanizzazione” dell’IA, con tanto di psicologi pagati. Pure il marketing ha i suoi limiti, no?
Un’IA che impara l’empatia… interessante. 🧐 Utile per chi ha bisogno, certo. Ma chi controlla chi impara da chi? 🤔 La macchina imita l’umano o l’umano si adegua alla macchina? 🤷♀️