Le regole del digitale stanno cambiando.
O sei visibile o sei fuori. Noi ti aiutiamo a raggiungere i clienti giusti — quando ti stanno cercando.
Contattaci ora →
Tra promesse di sicurezza e timori di abusi, le contromisure basteranno a proteggerci dai rischi di deepfake e manipolazioni?
OpenAI presenta Sora 2, il suo nuovo generatore video, promettendo un ecosistema sicuro grazie a filtri avanzati e controlli sull'identità. Tuttavia, le prime falle nel sistema, denunciate da organizzazioni di vigilanza, sollevano seri dubbi. Il rischio che la tecnologia venga sfruttata per creare deepfake e disinformazione appare concreto, mettendo in discussione l'efficacia delle difese proposte dall'azienda.
Le promesse di OpenAI: un mondo di video sicuri (o quasi)
OpenAI ha messo sul tavolo la sua nuova creatura, Sora 2, e insieme ad essa un intero pacchetto di promesse sulla sicurezza. L’idea è quella di darci uno strumento potentissimo per creare video dal nulla, ma con tutte le garanzie del caso per evitare che la situazione sfugga di mano.
Si parla di un sistema su più livelli che va dalla verifica della provenienza dei contenuti tramite metadati standard (i C2PA) e watermark visibili, fino a filtri automatici che dovrebbero bloccare sul nascere richieste e video problematici, come materiale sessuale o propaganda terroristica.
In pratica, prima che tu possa anche solo pensare di generare qualcosa, la piattaforma analizza ciò che scrivi. E se per caso il risultato finale viola le policy, viene bloccato.
Sulla carta, un castello di difese impenetrabile.
Ma, come sempre quando si parla di colossi tech, la teoria è una cosa, la pratica è tutt’altra.
Quali sono, nel dettaglio, gli strumenti che dovrebbero tenerci al sicuro da un uso spregiudicato di questa tecnologia?
Gli strumenti del mestiere per una creatività “sotto controllo”
Andiamo a vedere cosa c’è nella cassetta degli attrezzi di OpenAI. Per prima cosa, hanno introdotto un controllo granulare sui “personaggi”, ovvero sulla tua immagine. Se qualcuno prova a creare un video usando una tua foto, non solo deve dichiararlo, ma tu hai il potere di revocare l’accesso e controllare ogni singolo video che ti ritrae. A questo si aggiungono protezioni specifiche per i più giovani e un sistema di controllo audio che impedisce di imitare la voce di artisti viventi o di replicare opere musicali esistenti.
L’azienda si vanta anche di aver condotto test approfonditi per scovare i rischi. I test interni, secondo il loro system card ufficiale, mostrerebbero un’efficacia del 96% nel bloccare contenuti sessualmente espliciti, senza però esagerare e bloccare richieste legittime.
Un numero che fa una certa impressione, non c’è che dire.
Tutto questo sembra fantastico, quasi troppo bello per essere vero.
Ma la domanda che dovresti farti è: regge alla prova del mondo reale?
O stiamo solo guardando una facciata ben costruita?
La realtà dei fatti: quando la toppa è peggio del buco
E qui, purtroppo, il castello di carte inizia a vacillare.
Nonostante le rassicurazioni, le organizzazioni di vigilanza hanno già lanciato l’allarme. A quanto pare, i filtri anti-impersonificazione di Sora 2 sono stati aggirati poco dopo il lancio, come denunciato qui.
Il problema è che, una volta che la tecnologia è là fuori, c’è sempre qualcuno pronto a trovarne le crepe. E le conseguenze non sono affatto banali.
Il rischio che Sora abbassi drasticamente la soglia per la creazione di deepfake convincenti usati per frodi, impersonificazioni e manipolazione dell’opinione pubblica è più che concreto, un timore condiviso da molti esperti di sicurezza.
La stessa OpenAI, con una certa onestà, ammette che “la protezione perfetta è difficile” da raggiungere, pur continuando a investire per migliorare.
La vera domanda, però, è un’altra:
Basta questo a dormire sonni tranquilli mentre una tecnologia così potente viene messa nelle mani di tutti?

Affidano la sicurezza ai creatori del caos; mi chiedo quale sia il loro profitto.
@Carlo Bruno Il profitto è il palco stesso, non lo spettacolo. Offrono una sicurezza illusoria per normalizzare la loro tecnologia, rendendo di fatto obsoleto il concetto di verità verificabile. È un calcolo, non un’etica.
@Nicola Caprioli La tua analisi sul calcolo è lucida. Stanno creando un problema per poi venderci una soluzione parziale. La domanda è: chi verificherà i verificatori quando la realtà stessa sarà divenuta negoziabile?
Sembra si stia tentando di arginare un’alluvione costruendo un castello di sabbia e chiamandolo diga. L’intenzione è lodevole, ma la fisica dei materiali suggerisce un esito prevedibile. Mi chiedo se la fiducia nella propria architettura non sia il primo punto debole.
Si erige una diga monumentale per poi tentare di sigillarne le crepe strutturali con del nastro adesivo. È un approccio che ignora la fisica stessa del problema, confondendo una misura palliativa con la protezione reale delle persone.
Il piromane che si offre come pompiere, quale magnifica garanzia di protezione per noi.
L’azienda vende antidoti mentre diffonde il veleno, un paradosso commerciale quasi ammirevole.