SynthID Detector di Google: una promessa di trasparenza o l’ennesimo tentativo di controllo in un’era di contenuti AI in continua espansione?
Google ha lanciato SynthID Detector, uno strumento per identificare contenuti (immagini, video, audio, testi) generati dall'AI tramite watermark invisibili. Nonostante il vanto di aver già marcato miliardi di contenuti, lo strumento non è per tutti e funziona solo con strumenti Google, sollevando dubbi sulla sua reale efficacia nel ripulire il web dalla disinformazione.
E google ci riprova: arriva synthid detector, ma basterà a ripulire il web?
Google ha tirato fuori dal cilindro un nuovo strumento, SynthID Detector. L’idea, sulla carta, è di quelle che piacciono: un portale per scovare i contenuti creati dall’AI – parliamo di immagini, video, audio e testi sfornati dai suoi gioiellini come Gemini, Imagen e Veo. Come? Attraverso dei “watermark” digitali, delle specie di firme invisibili. Big G si vanta di aver già “marchiato” oltre 10 miliardi di questi contenuti.
Una cifra da capogiro, non c’è che dire.
Peccato che, per ora, questo fantastico detector non sia esattamente per tutti. Anzi, diciamocelo, è per pochi eletti.
E allora la domanda sorge spontanea: a chi serve davvero questa mossa? Solo a far bella figura o c’è dell’altro sotto?
Ma aspetta un attimo, perché la faccenda si fa ancora più interessante quando cerchiamo di capire come funziona questa presunta bacchetta magica…
Watermark invisibili: promesse da silicon valley o il solito specchietto per le allodole?
Google ci racconta che il sistema usa modelli di deep learning per ficcare questi watermark nel contenuto e poi, ovviamente, per ritrovarli. Per le immagini, ti evidenzierebbe le zone “incriminate”; per audio e video, ti darebbe addirittura i segmenti con tanto di timestamp.
Sempre secondo loro, e qui puoi leggere i dettagli direttamente sul blog di DeepMind, il watermark dovrebbe resistere alle modifiche più comuni, tipo se ritagli un’immagine o applichi un filtro.
Però, attenzione, ammettono candidamente che lo strumento non è infallibile. Ah, ecco, mi sembrava troppo bello!
Ma quanto “non infallibile”?
Del 10%? Del 50%? Questo, ovviamente, non ce lo dicono con la stessa fanfara.
Certo, gli esperti del settore parlano di un passo avanti verso un “responsible IA development”, una di quelle frasi che riempiono la bocca.
Un report di Stanford del 2024, citato in un documento sulla governance dell’IA, inserisce il watermarking tra sette “interventi ad alta priorità” per combattere i rischi della media sintetici.
Suona bene, no?
Peccato che altri ricercatori, forse con i piedi un po’ più per terra, ci ricordino che il solo watermarking difficilmente risolverà il problema della disinformazione, memori di come in passato standard come quelli della Content Authenticity Initiative siano stati adottati a macchia di leopardo, lasciando il tempo che trovano.
Insomma, la solita storia: belle promesse, ma la realtà è spesso un’altra musica.
E mentre Google si batte il petto, cosa succede sul fronte delle regole e, soprattutto, come si stanno muovendo gli altri colossi, quelli che contribuiscono a questo far west digitale?
Tra leggi che rincorrono e un far west digitale ancora tutto da scrivere
Diciamocelo chiaramente: il lancio di SynthID casca proprio a fagiolo con l’EU AI Act che, tra le altre cose, impone un’etichettatura chiara per i contenuti generati dall’IA.
Una bella spinta per Google, non trovi?
Anche un Report Scientifico Internazionale sulla Sicurezza dell’IA del 2024 ha definito il watermarking una “salvaguardia di minima vitalità”.
“Minima”, hai letto bene.
Non proprio un sigillo di garanzia assoluta, ecco.
Google, poi, fa la mossa da prima della classe rendendo open-source il modulo di SynthID per il watermarking del testo, come descritto sul loro portale per sviluppatori AI – un gesto di apertura o un modo furbo per cercare di imporre il proprio standard a tutti gli altri?
Chissà.
Il punto dolente, però, è che questa meraviglia tecnologica, per ora, funziona solo con i contenuti creati dagli strumenti di Google, come specificato da DeepMind stessa.
E tutto il resto del ciarpame AI che ci sommerge ogni giorno, chi lo controlla?
Per non parlare del fatto che le valutazioni sono “probabilistiche”: in pratica, ti dicono “forse è AI, forse no”.
Grazie tante, che aiuto!
E ciliegina sulla torta: altri sistemi, come AudioMark di OpenAI, usano tecnologie di watermarking diverse e, ovviamente, incompatibili.
Quindi, invece di una soluzione, rischiamo di trovarci con un bel caos di standard che non si parlano tra loro.
Certo, ogni passo verso una maggiore trasparenza è, in teoria, positivo.
Ma da qui a dire che SynthID risolverà il problema ce ne corre.
La strada per capire davvero cosa è reale e cosa è finto online è ancora lunga, e temo piena di annunci roboanti più che di soluzioni definitive per noi utenti, che ogni giorno navighiamo in un mare di informazioni sempre più torbido.
Staremo a vedere se questa è la volta buona o l’ennesima medaglia che Google si appunta al petto, lasciando i problemi veri ancora tutti sul tavolo.