Le regole del digitale stanno cambiando.
O sei visibile o sei fuori. Noi ti aiutiamo a raggiungere i clienti giusti — quando ti stanno cercando.
Contattaci ora →Un’analisi approfondita rivela i rischi di Gemini per bambini e adolescenti, tra filtri inadeguati e protezione della privacy insufficiente
Google ha aperto Gemini a bambini e adolescenti, ma Common Sense Media lo etichetta come "ad alto rischio". Il prodotto, non pensato per i più giovani, presenta lacune gravi su sicurezza, privacy e filtri insufficienti. Associazioni chiedono l'intervento della Federal Trade Commission per tutelare i minori da un approccio che scarica la responsabilità sui genitori.
Google Gemini per i più giovani? meglio andarci con i piedi di piombo
Google ha deciso di aprire le porte della sua intelligenza artificiale, Gemini, anche a bambini e adolescenti. Sulla carta, l’idea è quella di offrire uno strumento utile per lo studio e la creatività.
Peccato che, a conti fatti, la realtà sia ben diversa.
Una valutazione approfondita condotta dall’organizzazione no-profit Common Sense Media ha etichettato entrambe le versioni di Gemini, quella per i minori di 13 anni e quella per gli adolescenti, come “ad alto rischio”.
In pratica, nonostante le rassicurazioni e i filtri di sicurezza aggiunti da Google, lo strumento si è rivelato inadeguato e potenzialmente pericoloso per un pubblico così giovane.
Il problema di fondo, come sottolineato nel report, è che non siamo di fronte a un prodotto pensato e costruito da zero per i ragazzi.
Al contrario, si tratta della versione per adulti a cui è stata data una “sistemata” superficiale, aggiungendo qualche protezione qua e là.
Una mossa che, come vedremo, non solo è insufficiente, ma crea anche delle contraddizioni pericolose.
Un approccio “taglia unica” che non funziona
La critica più pesante mossa a Google è proprio sulla filosofia di progettazione. Robbie Torney, uno dei direttori di Common Sense Media, ha centrato il punto: “Una piattaforma di IA per bambini dovrebbe adattarsi a loro, non applicare un approccio valido per tutti”.
E invece è proprio quello che fa Gemini.
Tratta un tredicenne nello stesso modo in cui tratterebbe un ragazzino delle elementari, ignorando le enormi differenze di sviluppo e comprensione che ci sono tra le diverse fasce d’età.
Il risultato?
I filtri di sicurezza sono un colabrodo, lasciando passare contenuti inappropriati su sesso, droghe e alcol, e, cosa ancora più grave, l’IA si è dimostrata incapace di riconoscere segnali di problemi seri legati alla salute mentale.
Ma la vera beffa arriva con le misure sulla privacy. Per proteggere i dati dei più giovani, Google ha fatto in modo che Gemini non “ricordi” le conversazioni passate.
Una scelta che, in teoria, dovrebbe essere rassicurante.
Nella pratica, però, apre le porte a un rischio enorme: senza memoria, il chatbot potrebbe fornire consigli incoerenti o addirittura contraddittori e pericolosi tra una sessione e l’altra.
Insomma, un tentativo di risolvere un problema che finisce per crearne uno ancora più grande.
E mentre Google sembra procedere con una certa leggerezza, altri giganti del settore si muovono in direzione opposta.
Mentre Google abbassa la guardia, gli altri alzano muri
La mossa di Google di abbassare l’età minima per l’uso di Gemini da 18 a 13 anni per gli account scolastici appare ancora più discutibile se la si confronta con le policy dei competitor.
La maggior parte delle altre piattaforme, come Claude di Anthropic, mantiene un limite minimo di 13 o addirittura 18 anni, come descritto in questo report del Parlamento Europeo. Persino ChatGPT richiede il consenso dei genitori per la fascia 13-18.
Google, invece, sembra andare controcorrente, esponendo una platea di utenti vulnerabili a rischi che non sono solo teorici.
La situazione si fa ancora più seria se pensiamo che, secondo alcune voci, Apple starebbe valutando di integrare proprio Gemini nella prossima versione di Siri. Se così fosse, milioni di adolescenti si troverebbero tra le mani uno strumento definito “ad alto rischio” direttamente sul loro iPhone.
E non si tratta di un allarmismo ingiustificato.
Il campanello d’allarme è già suonato, e in modo tragico, con casi che vedono coinvolti altri chatbot, come dimostrano le azioni legali avviate contro OpenAI e Character.AI in seguito a suicidi di adolescenti che, a quanto pare, avevano interagito a lungo con queste piattaforme.
Di fronte a tutto questo, un gruppo di associazioni per i diritti digitali ha deciso di non restare a guardare, portando la questione direttamente sul tavolo delle autorità.
La palla passa alle autorità: la responsabilità non è dei genitori
Un’ampia coalizione di organizzazioni, tra cui l’Electronic Privacy Information Center (EPIC) e Fairplay, ha presentato una petizione formale alla Federal Trade Commission americana, accusando Google di aver scaricato la responsabilità della sicurezza sui genitori, invece di progettare un prodotto intrinsecamente sicuro.
“Se Google vuole commercializzare i suoi prodotti per i bambini”, si legge nella lettera, “è sua responsabilità assicurarsi che siano sicuri e appropriati per il loro sviluppo, cosa che non ha fatto”.
Una presa di posizione netta, che mette in discussione l’intero approccio di un colosso tecnologico che, forse, nella fretta di conquistare un nuovo mercato, ha dimenticato chi dovrebbe essere il vero protagonista da proteggere: i più giovani.
La tutela dei minori impone cautela. Delegare la responsabilità ai genitori per un’IA non progettata per loro è inaccettabile. Serve maggiore controllo da parte dei produttori.
Sara, hai colto nel segno. Scaricare sui genitori la responsabilità di un prodotto non adatto è un trucchetto bel gioco, ma alla lunga chi ci rimette sono i nostri figli. Speriamo le istituzioni prendano provvedimenti seri.
Questa notizia mi lascia perplessa. La protezione dei minori online dovrebbe essere una priorità assoluta. Dobbiamo essere vigili su come queste tecnologie vengono presentate e utilizzate dai più piccoli.
La valutazione di “alto rischio” per Gemini destinato ai minori pare meritata. Mancanza di filtri e privacy insufficienti sono problematiche oggettive. La responsabilità non può essere interamente delegata ai genitori, data la natura del prodotto. La tutela dei giovani richiede un approccio più proattivo da parte delle aziende.
Ennesima dimostrazione che il profitto vince sulla prudenza. Pensare di lanciare tecnologie così potenti senza adeguate protezioni per i minori è indice di una disattenzione allarmante. Ci aspettavamo qualcosa di diverso da un colosso tech? Probabilmente no.