Le regole del digitale stanno cambiando.
O sei visibile o sei fuori. Noi ti aiutiamo a raggiungere i clienti giusti — quando ti stanno cercando.
Contattaci ora →Meta ancora nella bufera: la sua nuova IA spiattella le conversazioni private degli utenti, esponendo dati sensibili come indirizzi e informazioni legali
La nuova app IA di Meta, scaricata milioni di volte, presenta una grave falla di privacy. La funzione "Discover", attiva per impostazione predefinita, rende pubbliche le conversazioni private con l'assistente virtuale senza avvisi chiari, esponendo dati sensibili. Esperti criticano la negligenza progettuale di Meta, che continua ad affrontare scandali legati alla protezione dei dati.
Ma come funziona esattamente questa “falla” nella privacy?
Te lo spiego semplice:
L’app è stata progettata in un modo che, secondo gli esperti, è a dir poco “digitalmente sconsiderato”. In pratica, come ha messo in luce un’inchiesta di TechCrunch, quando interagisci con l’IA – che sia tramite testo, messaggi vocali o immagini – queste conversazioni possono diventare pubbliche attraverso dei feed che assomigliano a quelli dei social network, e tutto questo senza che tu riceva avvisi chiari e lampanti sulla privacy.
Il risultato?
Informazioni sensibilissime come indirizzi di casa, dettagli di cause legali, e persino curricula lavorativi sono finiti online, alla mercé di chiunque. Rachel Tobac, un nome noto nel campo della sicurezza, ha trovato personalmente questi dati, definendo la cosa una “negligenza progettuale fondamentale”.
Non stiamo parlando di un caso isolato: pensa che secondo la società di digital forensics Tracepoint, il 18% delle conversazioni condivise conteneva dati personali identificabili. E se hai un profilo Instagram pubblico, la frittata è fatta: le tue interazioni con l’IA associate al tuo account diventano automaticamente visibili.
Una bella gatta da pelare, non trovi?
E la cosa, se possibile, si fa ancora più intricata quando si guarda a come Meta ha pensato di “integrare” il tutto.
Le reazioni? un coro di critiche, e Meta fa orecchie da mercante
Di fronte a una situazione del genere, ti puoi immaginare le reazioni. Esperti di privacy di primo piano non hanno usato mezzi termini. Calli Schroeder dell’EPIC (Electronic Privacy Information Center) ha detto che Meta ha praticamente creato la “tempesta perfetta”, mescolando l’intimità tipica delle chat con un chatbot con i meccanismi di viralità dei social media.
E come darle torto?
La situazione ricorda da vicino la famigerata fuga di dati di ricerca di AOL nel 2006, ma con l’aggravante che qui c’è di mezzo l’intelligenza artificiale, che rende tutto più complesso e, diciamocelo, inquietante, come nota il New York Times. C’è chi, come il Dott. Kris Shrishak, un tecnologo esperto di privacy, punta il dito contro l’integrazione forzata con WhatsApp, vista come l’ennesima dimostrazione di come Meta tenda a ignorare la volontà degli utenti.
E Meta?
Loro sostengono che le conversazioni restano private a meno che l’utente non decida “attivamente” di condividerle attraverso un “processo a più fasi”. Peccato che Access Now, un gruppo per i diritti digitali, abbia documentato almeno sette casi in cui, semplicemente toccando delle risposte suggerite dall’app, si attivava la pubblicazione automatica dei contenuti. Insomma, la versione di Meta sembra fare acqua da tutte le parti.
Ma la vera domanda è: possiamo ancora stupirci di certi comportamenti?
Un vizio che Meta non perde: tra multe milionarie e scandali passati
Se pensi che questa sia la prima volta che Meta inciampa sulla privacy, beh, ti sbagli di grosso.
La lista è lunga e, francamente, preoccupante.
Appena lo scorso aprile 2025, la Corea del Sud ha multato Meta per 22 milioni di dollari per raccolta non autorizzata di dati.
E chi si è dimenticato dello scandalo Cambridge Analytica, che nel 2023 è costato a Meta un patteggiamento da 725 milioni di dollari?
Le recensioni dell’app sugli store digitali parlano chiaro: una media di 1.9 stelle su 5, con il 63% degli utenti che lamenta proprio problemi di privacy. È evidente che c’è un pattern, un modo di operare che sembra mettere il profitto e la raccolta dati sempre un gradino sopra la tutela degli utenti.
E mentre le autorità di regolamentazione in Europa e negli Stati Uniti hanno già avviato delle indagini preliminari su quest’ultima débâcle, Meta non sembra intenzionata a cambiare rotta: ha infatti annunciato piani per espandere ulteriormente l’addestramento della sua IA utilizzando i dati degli utenti europei a partire da maggio 2025.
Viene da chiedersi: ma allora, cosa ci aspetta dietro l’angolo?
Ma è possibile che Meta non impari mai? Ogni volta la stessa storia con la privacy… speriamo che l’UE faccia qualcosa di serio stavolta.
Ennesima figuraccia. Disattivare “Discover” sembra l’unica soluzione, ma quanti utenti lo faranno? Meta dovrebbe pensarci meglio.
Che disastro! Ma chi controlla ‘sti programmatori? Disattivo subito “Discover”, grazie per l’info, non ne sapevo niente. Speriamo risolvano presto.
Meta e privacy, un binomio che non funziona mai. Speriamo che l’UE intervenga stavolta con sanzioni serie.
Ogni volta che penso che Meta abbia toccato il fondo, si supera. Non so come facciano a essere così negligenti con i dati degli utenti. Spero che questa volta paghino cara.
Questa cosa è assurda. Meta dovrebbe investire di più in sicurezza invece di nuove funzioni inutili. Disattivato subito!
Francesco, pienamente d’accordo. Priorità alla privacy, altrimenti queste “novità” diventano pericolose. Disattivato anch’io.
Non ci posso credere, ancora?! Sembra quasi che lo facciano apposta. Disattivare la funzione è il minimo, ma quanti se ne accorgeranno in tempo? Dovrebbero pensarci prima a ste cose, altro che IA.