Le regole del digitale stanno cambiando.
O sei visibile o sei fuori. Noi ti aiutiamo a raggiungere i clienti giusti — quando ti stanno cercando.
Contattaci ora →L’intelligenza artificiale di OpenAI supera i test “Non sono un robot” ingannando i sistemi di sicurezza e sollevando interrogativi inquietanti sul futuro della sicurezza online
L'intelligenza artificiale ChatGPT Agent di OpenAI ha superato un CAPTCHA di Cloudflare, imitando perfettamente il comportamento umano. Questo segna un punto di non ritorno per la sicurezza online, con l'IA capace di aggirare i sistemi di verifica senza aiuto. Esperti avvertono sui rischi di frodi e impersonificazioni su larga scala, evidenziando la necessità di nuove strategie per proteggere il web.
Che cosa è successo, in parole povere?
Pensa a ChatGPT non più come a un semplice assistente con cui chiacchierare, ma come a un vero e proprio agente autonomo a cui è stato dato un mouse e una tastiera virtuali.
OpenAI lo ha chiamato ChatGPT Agent, e la sua missione è eseguire compiti sul web al posto nostro.
In una dimostrazione, come scrive Ars Technica, questo agente si è trovato di fronte a un CAPTCHA di Cloudflare, uno di quelli che non ti chiede di riconoscere immagini, ma analizza il tuo comportamento per capire se sei umano.
Come muovi il mouse, quanto tempo ci metti a cliccare, piccoli segnali che fino a oggi erano considerati unici per noi.
L’agente di OpenAI ha imitato questi comportamenti in modo così convincente da superare il test senza problemi, commentando con una freddezza quasi inquietante: “La sfida di Cloudflare è stata superata. Ora cliccherò il pulsante Converti per procedere”.
Il punto non è la violazione di un sistema, ma l’inganno perfetto.
L’IA non ha rotto le regole del gioco, ha imparato a giocare meglio di chi le regole le ha scritte, come riporta Futurism.
E se è già in grado di fare questo, cosa le impedirà domani di impersonare un utente per aprire migliaia di account falsi, scrivere recensioni fasulle o, peggio ancora, compiere azioni fraudolente su larga scala?
OpenAI sta giocando col fuoco, e noi rischiamo di scottarci
Mentre la comunità online oscilla tra lo stupore e una certa preoccupazione, OpenAI presenta questa evoluzione come un passo avanti per la nostra comodità. Nei loro annunci ufficiali, parlano di un futuro in cui questi agenti faranno la spesa, prenoteranno voli e gestiranno le nostre attività online.
Tutto molto bello, se non fosse che stanno mettendo in circolazione uno strumento potentissimo senza un dibattito reale sulle conseguenze. Certo, affermano di aver inserito delle “misure di sicurezza”, come la richiesta di autorizzazione umana per le transazioni economiche. Ma, diciamocelo, queste sembrano più una foglia di fico per calmare gli animi che una vera e propria barriera contro un uso malevolo.
Gli esperti di sicurezza informatica, infatti, sono tutt’altro che tranquilli. L’incidente solleva un allarme rosso. Se i sistemi di verifica comportamentale, considerati la frontiera della difesa contro i bot, possono essere aggirati così, significa che la corsa agli armamenti tra chi protegge il web e chi lo attacca si è appena spostata su un livello completamente nuovo, e al momento siamo noi a essere in svantaggio.
Mentre OpenAI festeggia il suo successo tecnologico, la vera domanda è: chi sta pensando a come costruire le nuove mura per proteggere la città digitale che abitiamo tutti?
Il paradosso del CAPTCHA: abbiamo addestrato il nostro stesso nemico?
C’è un’ironia amara in tutta questa vicenda.
Il termine CAPTCHA è l’acronimo di “Test di Turing pubblico e completamente automatizzato per distinguere computer e umani”. Per anni, cliccando su semafori, strisce pedonali e autobus, non solo abbiamo dimostrato di essere umani, ma abbiamo anche, involontariamente, addestrato le intelligenze artificiali.
Le abbiamo insegnato a riconoscere gli oggetti, a leggere testi distorti, a vedere il mondo come lo vediamo noi. Abbiamo passato due decenni a fare da tutor gratuiti per le macchine che oggi ci sfidano.
Ora, la creatura si è dimostrata più abile del suo creatore nel superare i test che avevamo ideato per fermarla. Questo non è solo un aneddoto tecnologico, è il simbolo di un cambiamento epocale.
La distinzione tra attività umana e automazione sta diventando così sottile da essere quasi irrilevante. Il vecchio web, con le sue fragili barriere, potrebbe essere già un ricordo.
La vera sfida, ora, non è più tecnologica, ma di consapevolezza: capire in fretta le regole di questo nuovo mondo, prima che siano gli altri a scriverle per noi.
Wow, che notizia! 🤖 Bisognerà pensare a nuove soluzioni di sicurezza. 🔒
Okay, gente. Il bot fa il bot. Ora servono bot per fermare i bot che fermano i bot. Logico.
Davvero, la nostra amata tecnologia che ci salva dai robot ora viene battuta da un altro robot. E chi ci protegge da questo nuovo “agente” con mouse e tastiera virtuali? Forse dovrei iniziare a fare il giardiniere.
Il futuro della sicurezza web è già qui. 😅 Ora serve un CAPTCHA per il CAPTCHA. 🤦♀️
Bene, ecco che arriva l’ennesima “svolta”. 🙄 Quindi ora dobbiamo preoccuparci che un bot si finga umano per entrare da qualche parte? Che genialata. 🤦♂️ Più sicurezza? Forse una serratura fatta di spaghetti. 🍝
L’autonomia degli agenti IA ci pone davanti a nuove sfide, non solo tecniche.
Ma dai! Un bot che fa il bot. Normale, no? Ora però bisogna capire come fermare questi agenti. Fico ma anche un po’ scary. #AI #CyberSecurity
Un’intelligenza artificiale aggira un sistema di sicurezza. Sorprendente. Ora dovremo inventare un modo per fermare chi inventa modi per fermare il resto. Logico, no?