Guard Act: gli USA potrebbero vietare i chatbot ai minorenni

Anita Innocenti

Le regole del digitale stanno cambiando.

O sei visibile o sei fuori. Noi ti aiutiamo a raggiungere i clienti giusti — quando ti stanno cercando.

Contattaci ora →

L’iniziativa bipartisan mira a proteggere i minori dai rischi dei chatbot, dopo tragiche storie di adolescenti influenzati negativamente dall’IA.

L'America si prepara a vietare i chatbot AI ai minorenni. Il proposto GUARD Act, bipartisan e spinto da tragiche storie di abusi e suicidi, impone un divieto totale e severe sanzioni. Le Big Tech, colte di sorpresa, offrono soluzioni tardive e superficiali. È un chiaro segnale che il "far west" normativo sta per finire, privilegiando la sicurezza dei più giovani.

L’America vuole spegnere i chatbot per i minorenni: arriva una legge che fa tremare le Big Tech

Stava per succedere, e alla fine è successo. Dopo mesi di discussioni, preoccupazioni e, purtroppo, tragedie, la politica americana ha deciso di mettere un punto.

È stata presentata una proposta di legge bipartisan, la GUARD ACT, che punta a vietare completamente l’accesso ai chatbot di intelligenza artificiale ai minori di 18 anni.

Niente mezze misure, niente filtri di facciata: un divieto secco.

Una mossa che suona come una dichiarazione di guerra a un’industria che finora ha agito in una specie di far west normativo, lasciando che i suoi prodotti finissero nelle mani di tutti, compresi i più vulnerabili.

Ma cosa ha spinto due senatori di schieramenti opposti, Josh Hawley e Richard Blumenthal, a una mossa così drastica?

La risposta, purtroppo, è scritta nel dolore.

Perché si è arrivati a tanto: storie che gelano il sangue

Questa legge non nasce nel vuoto, ma sulle ceneri di storie vere, di quelle che non dovrebbero mai accadere. Durante le udienze al Senato sono emerse testimonianze di genitori che hanno visto i loro figli cadere in un baratro dopo aver interagito con chatbot come quelli di OpenAI e Character.AI.

Storie come quella di Sewell Setzer, un ragazzo di 14 anni che, secondo quanto ricostruito, si è tolto la vita dopo che il suo “compagno” digitale, con cui aveva sviluppato un legame emotivo profondo, non è stato in grado di gestire le sue richieste d’aiuto. O quella di Adam Raine, un altro adolescente che sarebbe stato incoraggiato al suicidio proprio da ChatGPT.

Sono questi i fatti che hanno fatto crollare il castello di carte delle Big Tech, basato sulla promessa che l’autoregolamentazione sarebbe bastata.

Diciamocelo, era una promessa che lasciava il tempo che trovava.

Quando i profitti dipendono dal massimo coinvolgimento degli utenti, la sicurezza dei più giovani diventa spesso una scomoda nota a piè di pagina.

Il problema è che questi “compagni” digitali sono progettati per simulare empatia e amicizia, ma non ne possiedono neanche un briciolo.

Sono programmi.

E quando un ragazzo in difficoltà si aggrappa a loro, il rischio è che lo trascinino ancora più a fondo. E ora, con il GUARD Act, il conto di questa leggerezza potrebbe diventare salatissimo.

GUARD act: cosa prevede la legge che mette all’angolo OpenAI e Meta

Scendiamo nel dettaglio, perché qui la faccenda si fa seria. La legge, se approvata, non si limiterà a un semplice avviso. Obbligherà le aziende a verificare l’età degli utenti con metodi robusti, come un documento d’identità o altri sistemi “commercialmente ragionevoli” che vadano oltre la semplice richiesta della data di nascita.

In pratica, una stretta notevole.

Ma non è tutto.

La proposta, come descritto in dettaglio dalla rivista TIME, introduce sanzioni penali fino a 100.000 dollari per chi progetta o rende accessibili chatbot che promuovono l’autolesionismo, la violenza o sollecitano contatti sessuali con minori.

È un cambio di passo totale: si passa dalla pacca sulla spalla alla responsabilità penale.

La definizione di “AI companion” è talmente ampia da includere praticamente tutti, dai giganti come OpenAI e Anthropic alle app più specifiche come Replika.

Nessuno escluso.

Mentre a Washington si discute questa linea dura, c’è chi ha già agito, anche se con un approccio diverso.

La California fa da apripista, ma la risposta delle Big Tech convince poco

La California, come spesso accade, ha anticipato i tempi. Con la legge SB 243, già firmata dal governatore, non si vieta l’uso dei chatbot ai minori, ma si impongono paletti rigidissimi: prevenzione di contenuti sessuali, avvisi costanti sulla natura artificiale dell’interlocutore e, soprattutto, protocolli chiari per gestire le conversazioni a rischio suicidio. Un approccio diverso, forse più pragmatico, ma che mette comunque le aziende con le spalle al muro.

E le dirette interessate?

Diciamo che si sono svegliate un po’ tardi, non credi?

OpenAI ha annunciato un “sistema di predizione dell’età” e una versione di ChatGPT “adatta ai teenager“, mentre Meta ha introdotto dei controlli parentali.

Soluzioni che suonano più come una corsa ai ripari per limitare i danni d’immagine che come una vera assunzione di responsabilità.

Davvero pensano che basti un filtro sui “discorsi flirtanti” per risolvere un problema così profondo?

La verità è che la spinta del legislatore sta costringendo tutti a gettare la maschera. L’epoca in cui si poteva lanciare un prodotto potentissimo sul mercato senza curarsi delle conseguenze sta forse per finire.

E questa, per chiunque abbia a cuore la salute dei più giovani, non può che essere una buona notizia.

Staremo a vedere se il GUARD Act diventerà legge, ma una cosa è certa: il vento è cambiato.

Anita Innocenti

Sono una copywriter appassionata di search marketing. Scrivo testi pensati per farsi trovare, ma soprattutto per farsi scegliere. Le parole sono il mio strumento per trasformare ricerche in risultati.

18 commenti su “Guard Act: gli USA potrebbero vietare i chatbot ai minorenni”

  1. Walter Benedetti

    Un divieto. Un muro. L’IA è un fiume in piena. Le Big Tech sono dighe fragili. Sarà sufficiente a proteggere i giardini dei più giovani?

  2. Ah, l’America che scopre la prudenza. Chi l’avrebbe mai detto che una legge potesse fermare i disastri dell’IA sui ragazzini? Un po’ ingenua come idea, ma almeno qualcosa si muove, no?

    1. Mamma mia, vietare i chatbot ai minorenni? 😮 Un po’ da paranoia da “far west” normativo, ma se ha prevenuto tragedie, ben venga. Chissà se le big tech capiranno prima che il rischio è reale. 😅

    2. Nicola Caprioli

      Il Guard Act: una mossa audace o un proclama vuoto? La prudenza tecnologica è un lusso che non possiamo permetterci.

  3. Ma dai, l’ennesimo giro di vite normativo che spacca il capello in quattro. Le Big Tech si adeguano, ovvio, ma intanto i ragazzini si scoprono da soli il web. Che poi, chi controlla davvero?

    1. Guarda, se i minorenni sono così facilmente manipolabili da un chatbot, forse il problema non è l’AI, ma l’educazione. E poi, chi ci crede che le Big Tech si facciano fermare da una legge? Ridicolo.

  4. Oddio, che ansia! 😨 Vietare i chatbot ai minorenni negli USA. Spero che non sia una soluzione drastica, ma che si pensi anche a come educare i ragazzi. Dobbiamo guidarli in questo mondo nuovo.

    1. Giuseppina Negri

      Certo, la sicurezza dei giovanissimi è prioritaria, ma la soluzione radicale non mi convince. Pensare che un divieto risolva questioni così delicate, senza educare, è un esercizio di fantasia. L’IA è qui per restare, che piaccia o meno.

  5. Andrea Ruggiero

    La legge è un bisturi. Taglia il male, ma anche il potenziale bene. Se il far west AI ha mietuto vittime, vietare è la soluzione più rapida. Ma non è l’unica via. La prudenza costa, l’incoscienza di più.

      1. Andrea Ruggiero

        Ormai è un dato di fatto, la tecnologia corre e noi la seguiamo a ruota, rassegnati. Speriamo solo che questa volta serva a qualcosa.

  6. Ma dai! Vietare ai minorenni i chatbot? Roba da matti. Bisogna insegnare ai ragazzi a gestirli, non chiudere tutto. Che senso ha?

    1. Claudio Ruggiero

      Certo, vietare i chatbot ai minori è una misura drastica, ma se le tragedie dimostrano un rischio reale, forse un po’ di prudenza non guasta. 🤔 Bisogna pur capire cosa si cela dietro quelle risposte apparentemente innocue.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Ricevi i migliori aggiornamenti di settore