OpenAI sventa attacchi cibernetici e campagne di disinformazione da Russia, Cina e Cambogia

Anita Innocenti

Le regole del digitale stanno cambiando.

O sei visibile o sei fuori. Noi ti aiutiamo a raggiungere i clienti giusti — quando ti stanno cercando.

Contattaci ora →

L’IA al servizio dei criminali: un “doping” digitale che accelera gli attacchi informatici e la disinformazione, rendendo la battaglia per la sicurezza sempre più complessa

OpenAI ha sventato attacchi informatici e campagne di disinformazione da gruppi russi, cinesi e cambogiani. I criminali usano l'AI per sviluppare malware più velocemente e potenziare la propaganda. La sfida principale è la loro rapida adattabilità e la capacità di eludere i sistemi di rilevamento, evidenziando una battaglia tecnologica in continua evoluzione.

Quando il malware impara a programmare da solo

Partiamo dalla minaccia più concreta: il crimine informatico.

Un gruppo di lingua russa, secondo quanto riportato da The Hacker News, ha usato ChatGPT non per creare un virus con un singolo comando, ma in modo molto più astuto. Hanno chiesto all’IA di scrivere piccoli pezzi di codice, di per sé innocui: uno script per monitorare gli appunti, un altro per offuscare il codice, un altro ancora per inviare dati tramite un bot di Telegram.

Metti insieme questi mattoncini e ottieni un malware bello e pronto, un trojan capace di rubare credenziali senza dare nell’occhio. In pratica, hanno usato l’IA come un programmatore junior a cui delegare i compiti più noiosi e ripetitivi, accelerando lo sviluppo e il perfezionamento dei loro strumenti di attacco.

E se pensi che il pericolo si fermi al furto di password, ti sbagli di grosso.

C’è un gioco ben più subdolo in corso, che non punta al tuo portafoglio ma alla tua testa.

La propaganda con il pilota automatico

Dall’altra parte del mondo, alcuni account legati alla Cina hanno utilizzato ChatGPT per orchestrare operazioni di influenza. Non si tratta più solo di hackerare un sistema, ma di inquinare il dibattito pubblico.

Le loro richieste all’IA erano specifiche: come lanciare una challenge virale su TikTok, come sfruttare l’hashtag #MyImmigrantStory per i propri scopi, o addirittura come trovare informazioni sui finanziatori di un account X critico verso il governo cinese.

L’intelligenza artificiale è diventata così un consulente strategico per la propaganda, capace di suggerire musiche, immagini e testi per rendere i messaggi più appetibili e virali, come descritto nel dettagliato rapporto di OpenAI.

La cosa più interessante?

Non è tanto cosa fanno, ma come si stanno evolvendo per non farsi scoprire, imparando dai nostri stessi discorsi su come riconoscerli.

I criminali che studiano come non farsi scoprire

La vera chicca di questo rapporto arriva da alcune reti di truffatori cambogiani. Questi gruppi, consapevoli del fatto che certi elementi stilistici (come l’uso eccessivo del trattino lungo, l’em-dash) sono spesso un “marchio di fabbrica” dei testi generati dall’IA, hanno iniziato a chiedere esplicitamente a ChatGPT di rimuoverli.

In pratica, stanno studiando i metodi di rilevamento per aggirarli. Questo ci dice due cose: primo, che sono estremamente attenti e reattivi; secondo, che la battaglia si sta spostando su un piano di astuzia e mimetizzazione.

Non basta più generare un testo, bisogna “umanizzarlo” per renderlo indistinguibile. E non si limitano al testo: le operazioni più recenti, come quella russa chiamata Stop News, combinano ormai testo e immagini generate dall’IA, rendendo la disinformazione sempre più credibile e pervasiva.

OpenAI ci assicura di avere la situazione sotto controllo, di aver potenziato i suoi sistemi di sicurezza e di collaborare con partner del settore.

Ma questa rincorsa continua è davvero una soluzione sostenibile?

Ogni volta che viene messa una pezza, i malintenzionati trovano un nuovo buco da cui passare, sfruttando la stessa tecnologia che dovrebbe, in teoria, aiutarci.

La domanda, alla fine, è sempre la stessa: chi controlla davvero il controllore?

Anita Innocenti

Sono una copywriter appassionata di search marketing. Scrivo testi pensati per farsi trovare, ma soprattutto per farsi scegliere. Le parole sono il mio strumento per trasformare ricerche in risultati.

6 commenti su “OpenAI sventa attacchi cibernetici e campagne di disinformazione da Russia, Cina e Cambogia”

  1. Giorgio Martinelli

    Pare che l’IA sia diventata un’arma a doppio taglio: i cattivi la usano per fare danni, mentre i buoni si difendono. Mica male come mercato, eh? Speriamo solo che la “difesa” non diventi più costosa dell'”attacco”.

  2. Melissa Benedetti

    L’IA usata dai criminali accelera attacchi e disinformazione. Bene che OpenAI contrasti questi pericoli, ma la loro adattabilità mette a dura prova i sistemi difensivi. Dove andremo a finire?

  3. Giovanni Graziani

    Certo, l’IA può accelerare gli attacchi, ma è evidente che anche noi possiamo usarla per difenderci. La vera questione è chi sarà più agile nell’adattare queste tecnologie. Sono curioso di vedere come si evolverà questo duello digitale.

    1. Sebastiano Caputo

      Ma certo che l’IA potenzia chi attacca! È ovvio. Quelli di OpenAI si vantano, ma è una corsa continua. Chi la spunterà alla fine?

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Ricevi i migliori aggiornamenti di settore