Il primo agosto 2024 Google ha introdotto un nuovo aggiornamento per contrastare i deepfake, riducendo la loro visibilità nei risultati di ricerca, per proteggere le aziende da frodi e danni reputazionali. In questo articolo ti parlo di come questa mossa può contrastare la disinformazione digitale e incidere sulle imprese che operano sul web.
Vediamo in cosa consiste il nuovo update e se riuscirà a proteggere gli utenti dalla disinformazione e le aziende da frodi e danni reputazionali
Hai mai visto un video in cui un noto personaggio pubblico dice qualcosa di assurdo, e ti sei chiesto:
“Ma davvero ha detto così?” Se la risposta è sì, probabilmente ti sei imbattuto in un deepfake.
Questi contenuti, che sembrano realistici, sono creati utilizzando l’intelligenza artificiale per manipolare immagini e suoni, spesso con intenti ingannevoli. La loro diffusione rappresenta un problema serio per l’informazione, le campagne elettorali e le aziende.
Per questo motivo, a Mountain View hanno finalmente deciso di intervenire.
1 Agosto 2024: Google annuncia un nuovo aggiornamento contro i deepfake
Il primo agosto 2024, Google ha annunciato un aggiornamento al suo algoritmo di ricerca per combattere i deepfake.
L’obiettivo principale è ridurre la visibilità di questi contenuti manipolati, garantendo che non appaiano in alto nei risultati di ricerca. Questo aggiornamento è stato progettato per colpire i contenuti espliciti falsi, promuovendo invece fonti di notizie affidabili.
I dati di Google mostrano che l’esposizione ai risultati di immagini esplicite è stata ridotta del 70% per le ricerche mirate, come ha dichiarato Emma Higham, responsabile ricerca di Big G.
Una delle novità più significative è l’espansione della funzione “About This Image“, ora disponibile su piattaforme come Google Lens.
Questo strumento consente agli utenti di verificare l’autenticità di un’immagine, mostrando quando è stata indicizzata per la prima volta, dove è apparsa e su quali altri siti è presente. Questo aiuta a identificare rapidamente i contenuti manipolati e a prendere decisioni informate sulla loro veridicità.
Big G ha anche introdotto modifiche significative alla classificazione dei contenuti.
Ad esempio, per le query che possono includere nomi di persone e risultare in contenuti falsi espliciti, Google mostrerà invece articoli di alta qualità e non espliciti.
Questo cambiamento ha già dimostrato di essere efficace, come evidenziato dalla riduzione del 40% della visibilità del sito MrDeepfakes.com (famigerato portale responsabile di contenuti ingannevoli, che non ti linko per questioni di buongusto) nei risultati di ricerca tra aprile e maggio 2024, come puoi vedere da questo grafico:
Inoltre questo update semplificherà il processo di rimozione manuale dei deepfake.
Quando qualcuno richiede la rimozione di contenuti espliciti falsi, il sistema tenterà anche di filtrare tutti i risultati espliciti simili relativi alla stessa persona. Questo significa che una volta rimossa un’immagine, Google cercherà e rimuoverà eventuali duplicati su altre piattaforme, migliorando così la protezione degli individui coinvolti.
La breve storia dei deepfake: cosa sono e in che modo falsificano la realtà
I deepfake sono contenuti multimediali creati utilizzando l’intelligenza artificiale per manipolare immagini, audio e video.
Il termine “deepfake” combina “deep learning” e “fake”, e descrive sia la tecnologia utilizzata che il contenuto stesso. Questa tecnologia permette di creare video e audio incredibilmente realistici in cui una persona sembra dire o fare qualcosa che in realtà non ha mai detto o fatto. Ma, almeno per ora, sembra ancora un concetto non così conosciuto come dimostra questo grafico:
Le sue origini risalgono all’uso di programmi di manipolazione delle immagini come Adobe Photoshop. Tuttavia, è solo a partire dal 2014, con lo sviluppo delle reti antagoniste generative (GAN) da parte del ricercatore Ian Goodfellow dell’Università di Montreal, che la tecnologia ha iniziato a prendere forma.
Le GAN utilizzano due algoritmi: un generatore che crea contenuti falsi e un discriminatore che valuta la loro autenticità, migliorando continuamente la qualità dei deepfake attraverso un processo iterativo.
Forse lo ricorderai, correva l’anno 2017, quando un utente anonimo di Reddit chiamato “deepfakes” iniziò a pubblicare video manipolati di celebrità, utilizzando un tool GAN che permetteva di scambiare i volti nei video, come successo in questo caso ai malcapitati Alison Brie e Jim Carrey.
Questi video diventarono subito virali, attirando l’attenzione dei media e del pubblico.
La facilità con cui è possibile creare deepfake- oggi più che mai- ha portato a un aumento esponenziale del loro utilizzo, non solo per scopi ricreativi ma, come potrai facilmente intuire, anche per diffondere disinformazione (specie durante le elezioni) e compiere atti illegali.
Come funzionano e come vengono utilizzati: dalle parodie alle frodi il passo è breve
I deepfake utilizzano reti neurali profonde per analizzare e replicare i modelli visivi e comportamentali presenti nei video originali. Ad esempio, un deepfake può partire da un video sorgente di una persona e manipolare il suo volto e i suoi movimenti per farle dire o fare cose che non ha mai fatto. Ci sono diversi approcci per creare deepfake, tra cui:
- Source video deepfakes, utilizzano un video originale e sovrappongono le caratteristiche del volto e del corpo di un’altra persona;
- Audio deepfakes, clonano la voce di una persona e la utilizzano per creare nuovi dialoghi;
- Lip syncing, mappano una registrazione vocale su un video, sincronizzando i movimenti delle labbra con le parole pronunciate.
Piccolo disclaimer: ovviamente non voglio darti istruzioni pratiche su come realizzarli, ma come si dice, “conosci il tuo nemico, se vuoi sconfiggerlo…”.
A questo punto ti chiederai quali sono i settori in cui trovano applicazione, è presto detto:
- Satira e parodia, creano contenuti umoristici in cui il pubblico è consapevole della falsità;
- Cyberbullismo e ricatti, utilizzati per creare video compromettenti allo scopo di estorcere denaro o danneggiare la reputazione delle persone e delle aziende;
- Disinformazione politica, impiegati per creare falsi video di politici, influenzando l’opinione pubblica e le elezioni;
- Frodi finanziarie, imitano le voci di dirigenti aziendali per ingannare i dipendenti e ottenere informazioni sensibili o trasferimenti di denaro;
- Intrattenimento, utilizzati nei film e nei videogiochi per creare scene complesse o per modificare le performance degli attori.
Come riconoscerli (e non cadere nella trappola)
Riconoscere un deepfake può essere complesso e oggi, molto probabilmente, è impossibile nella maggior parte dei casi. Ci sono però alcuni segnali a cui prestare attenzione che possono aiutarti a identificare un video manipolato.
Uno dei primi indizi è l’incoerenza nei movimenti delle labbra rispetto alle parole pronunciate.
I deepfake infatti spesso falliscono nel sincronizzare perfettamente i movimenti delle labbra con l’audio, creando un effetto innaturale. Inoltre, presta attenzione ai dettagli del viso, come espressioni facciali non naturali o movimenti degli occhi che non seguono un pattern normale. Anche l’illuminazione può rivelare un deepfake: se le ombre e le luci sul volto della persona non sembrano realistiche o coerenti con l’ambiente circostante, è probabile che il video sia stato manipolato.
Oltre agli aspetti visivi, anche l’audio può fornire indizi. I deepfake audio possono presentare intonazioni strane, pause innaturali o una qualità audio incoerente con il video. La voce può sembrare monotona o priva di espressione, e l’audio potrebbe non corrispondere esattamente ai movimenti delle labbra.
A questo proposito ti consiglio una guida pubblicata dal Guardian su come riconoscere i deepfake, credo possa rivelarsi molto utile.
Insomma, riconoscere un fake richiede attenzione ai dettagli e un occhio allenato, ma con l’uso delle giuste tecniche e strumenti, è possibile difendersi da questa insidiosa forma di disinformazione.
Ma le istituzioni che fanno, ti chiederai?
Gli sforzi legislativi di USA e Unione Europea per contrastarli
L’11 luglio 2024, negli Stati Uniti, è stata presentata una proposta di legge per arginare il problema con l’introduzione del COPIED Act (Counterfeit Origin Prevention in Entertainment and Digital).
Questa iniziativa mira a contrastare l’uso illecito dei deepfake imponendo obblighi specifici ai creatori di contenuti manipolati digitalmente. Secondo il COPIED Act, chi produce deepfake deve chiaramente indicare che il contenuto è stato manipolato, fornendo una dichiarazione esplicita che accompagna il video o l’audio falsificato.
L’iniziativa legislativa si propone di proteggere sia i singoli individui che le istituzioni pubbliche e private dalle potenziali conseguenze dannose dei deepfake. Il disegno di legge include anche sanzioni per coloro che non rispettano le normative, con multe significative e possibili pene detentive per i trasgressori.
Inoltre, prevede la collaborazione tra le piattaforme di social media e le autorità governative per identificare e rimuovere i deepfake, garantendo che tali contenuti non possano diffondersi rapidamente e causare danni. L’obiettivo è creare un ambiente digitale più sicuro e affidabile, dove gli utenti possano fidarsi delle informazioni che consumano.
Ma anche l’Unione Europea non sta a guardare, è notizia di oggi, 1 agosto 2024, l’entrata in vigore di una legge sull’intelligenza artificiale con misure specifiche per affrontare proprio i deepfake.
A testimonianza della rilevanza della notizia, ecco l’annuncio di Ursula von der Leyen, presidente della Commissione Europea su X (il post è reale, mi sono assicurato, non temere…):
La normativa europea sull’intelligenza artificiale di agosto 2024 è un fatto davvero rilevante- fidati, non esagero!
Ecco cosa prevede nel dettaglio:
questa nuova legge richiede che tutti i contenuti generati dall’intelligenza artificiale siano chiaramente etichettati come tali, per garantire trasparenza agli utenti. Inoltre, le aziende che non rispettano queste regole possono incorrere in sanzioni molto severe, tra cui multe fino a 30 milioni di euro o il 6% del fatturato globale annuo, a seconda di quale importo sia maggiore. La legge prevede anche la creazione di un organismo di supervisione che monitorerà l’implementazione delle regole e la conformità delle aziende.
Queste leggi rappresentano passi importanti verso la regolamentazione dei contenuti digitali e la protezione del pubblico dagli effetti negativi della manipolazione tecnologica. La necessità di identificare e controllare i deepfake è diventata evidente, e il COPIED Act, insieme alle normative europee, è un esempio di come i governi possono agire per affrontare queste nuove sfide tecnologiche.
I deepfake minacciano le aziende: aumento di truffe nel 2023 (e nel 2024 la situazione non sembra migliorare…)
I deepfake non rappresentano però solo una minaccia per utenti e istituzioni politiche, ma stanno diventando sempre più pericolosi anche per le aziende.
Secondo Yarix, società che si occupa di sicurezza informatica, nel 2023, si è registrato un preoccupante aumento del 300% degli incidenti informatici di gravità critica legati ai deepfake. Questi attacchi sofisticati utilizzano video e audio falsificati per ingannare i dipendenti e compromettere la sicurezza aziendale.
Una delle forme più comuni di attacchi tramite deepfake è il business email compromise (BEC), dove i cybercriminali utilizzano video o audio deepfake per impersonare dirigenti aziendali.
Ad esempio, possono creare un video del CEO che chiede al CFO (colui che gestisce le finanze dell’azienda) di trasferire urgentemente fondi a un conto bancario estero. La qualità di questi deepfake può essere così alta da ingannare anche i dipendenti più esperti, portando a perdite finanziarie significative per l’azienda.
Per esempio, a me stupì molto il caso del 2019, riportato dal Wall Street Journal, di una truffa che colpì un’azienda energetica britannica, in cui dei cyber-criminali, grazie a degli audio convincenti, ingannarono il direttore finanziario dell’azienda a trasferire 220.000 euro a un falso fornitore ungherese. La voce era così realistica che il direttore non ebbe dubbi sulla richiesta. E si trattava di cinque anni fa, immaginate l’accuratezza e precisione raggiunta oggi da queste tecnologie!
Oltre alle perdite finanziarie, questo tipo di attacchi può avere gravi impatti sulla reputazione aziendale. Un video falsificato può diffondersi rapidamente sui social media, danneggiando l’immagine pubblica di un’azienda e minando la fiducia dei clienti e degli investitori.
La manipolazione di videoconferenze e altri canali di comunicazione interna può anche portare alla divulgazione di informazioni sensibili, compromettendo ulteriormente la sicurezza aziendale.
Per contrastare questa minaccia crescente, le aziende devono adottare misure preventive e tecnologiche. Questo include l’implementazione di strumenti avanzati di rilevamento dei deepfake, la formazione dei dipendenti per riconoscere segnali di possibili truffe e l’adozione di protocolli di verifica più rigorosi per le comunicazioni interne.
L’intelligenza artificiale sconfiggerà i deepfake (ma solo se usata bene…)
Ironia della sorte, la stessa tecnologia che permette di creare deepfake potrebbe anche essere la chiave per sconfiggerli. Insomma, una lotta fratricida!
In breve, le IA possono essere risorse davvero utili, se usate consapevolmente, non solo un pericolo per l’umanità…
Infatti, l’intelligenza artificiale può essere impiegata per sviluppare strumenti che riconoscono e segnalano i deepfake. Ad esempio, gli algoritmi di machine learning possono analizzare i video e identificare i segni distintivi della manipolazione, come movimenti innaturali o anomalie nell’illuminazione.
Google stessa, come hai visto, con l’aggiornamento annunciato il primo agosto, include nuove funzionalità che aiutano a identificare i deepfake nei risultati di ricerca e a fornire informazioni aggiuntive agli utenti. Questo potrebbe essere un passo decisivo nella lotta contro la disinformazione digitale.
D’altronde Big G doveva per forza di cose agire, specie dopo le polemiche di chi l’accusa di favorire lo spam creato dalle IA.
Mi auguro solo che questo aggiornamento non crei i problemi di quello di giugno 2024!
Tuttavia, la strada è ancora lunga, e sarà necessario un impegno continuo da parte di tutti – aziende, legislatori e utenti – per contrastare efficacemente questa minaccia digitale, anche se, devo essere sincero, non sarà affatto semplice.
Dal canto mio, prometto di tenerti aggiornato sulla questione, puoi fidarti, a parlare non è un deepfake (ma questo, se hai letto l’articolo, dovrebbe esserti chiaro).
Takeaways
- Google ha annunciato un aggiornamento al suo algoritmo di ricerca per ridurre la visibilità dei deepfake nei risultati, promuovendo fonti affidabili e riducendo l’esposizione ai contenuti manipolati del 70%.
- L’espansione “About this image” su Google Lens permette agli utenti di verificare l’autenticità delle immagini, identificando rapidamente i contenuti manipolati.
- Il nuovo sistema semplifica la rimozione dei deepfake, cercando e eliminando duplicati su altre piattaforme per proteggere gli individui.
- Negli USA, il COPIED Act impone obblighi ai creatori di deepfake, mentre l’UE introduce sanzioni severe per garantire trasparenza e conformità.
- L’aumento del 300% degli incidenti informatici legati ai deepfake nel 2023 sottolinea la necessità di misure preventive, inclusi strumenti di rilevamento avanzati e formazione per i dipendenti.
FAQ
Cosa sono i deepfake?
I deepfake sono contenuti multimediali creati utilizzando l’intelligenza artificiale per manipolare immagini, audio e video, spesso con intenti ingannevoli.
Come riconoscere un deepfake?
Riconoscere un deepfake può essere complesso, ma ci sono segnali come incoerenze nei movimenti delle labbra, dettagli del viso non naturali e caratteristiche innaturali come dita aggiuntive.
Quali misure ha adottato Google contro i deepfake?
Google ha annunciato un aggiornamento del suo algoritmo di ricerca per ridurre la visibilità dei deepfake e ha espanso la funzione ‘About This Image’ per aiutare a verificare l’autenticità delle immagini.