Google lancia il suo “cyber-guardiano” AI: CodeMender e il dibattito etico sulla sicurezza informatica

Anita Innocenti

Le regole del digitale stanno cambiando.

O sei visibile o sei fuori. Noi ti aiutiamo a raggiungere i clienti giusti — quando ti stanno cercando.

Contattaci ora →

L’azienda di Mountain View presenta un sistema di intelligenza artificiale per proteggere il codice, mentre all’ONU si invoca un controllo globale per evitare una “corsa agli armamenti” digitali

Google ha svelato CodeMender, un agente IA autonomo per riparare vulnerabilità di sicurezza nel codice. L'iniziativa, volta a contrastare minacce AI-generate, solleva però un acceso dibattito. Esperti e l'ONU esprimono preoccupazioni crescenti sull'etica e il controllo dell'intelligenza artificiale, suggerendo che Google stia vendendo una cura per un problema che ha contribuito a diffondere, anziché risolverlo alla radice.

Un “medico” automatico per il codice malato

Andiamo al sodo: cos’è questo CodeMender?

Mettiamola semplice. È un sistema basato sui modelli Gemini di Google, progettato per fare molto più che trovare un errore. A quanto pare, analizza la causa profonda di una vulnerabilità, genera una “cura” (una patch di codice) e la applica senza bisogno di un intervento umano.

La vera chicca, secondo Google, è il sistema di auto-validazione: altri agenti AI, chiamati “critici”, controllano il lavoro del primo, un po’ come un secondo parere medico, prima che un essere umano dia l’ok finale.

Evan Kotsovinos, un pezzo grosso della sicurezza in Google, ha dichiarato che l’AI può dare un “vantaggio decisivo ai difensori”. Tempismo perfetto, visto che la loro stessa intelligence ammette che i cybercriminali stanno già usando l’AI per lanciare attacchi più veloci e sofisticati.

Insomma, da un lato creano tecnologie potentissime e accessibili a tutti, criminali inclusi, e dall’altro vendono la soluzione per difendersi.

Una strategia di mercato impeccabile, non c’è che dire.

Ma mentre a Mountain View si auto-celebrano, nel resto del mondo l’atmosfera è decisamente meno festosa.

Il campanello d’allarme suona alle Nazioni Unite

Mentre Google lancia la sua soluzione tecnologica, al Palazzo di Vetro di New York si discute di qualcosa di molto più grande. Durante un recente dibattito di alto livello del Consiglio di Sicurezza dell’ONU, il quadro dipinto è stato tutt’altro che rassicurante.

Il Segretario Generale António Guterres ha usato parole forti, avvertendo che la finestra per governare l’AI a fin di bene si sta chiudendo in fretta e furia. Ha spinto per regole globali che obblighino i sistemi AI a rispettare le leggi internazionali, sottolineando che “l’innovazione deve servire l’umanità, non minarla”, come riportato sul portale stampa delle Nazioni Unite.

In poche parole, il messaggio è che non si può lasciare che una manciata di aziende private decida le sorti della sicurezza globale solo perché hanno la tecnologia in mano.

È un contrasto stridente: da una parte la soluzione “pronta all’uso” di una multinazionale, dall’altra la disperata ricerca di un consenso globale per evitare il disastro.

E se pensi che queste siano solo le solite preoccupazioni dei politici, aspetta di sentire cosa dicono gli scienziati che queste tecnologie le hanno viste nascere.

Quando chi crea il “mostro” inizia ad averne paura

Le voci più preoccupate, infatti, arrivano proprio da chi l’IA la costruisce. Yoshua Bengio, uno dei padri del deep learning, ha avvertito i funzionari dell’ONU che, nonostante i trilioni di dollari investiti, gli scienziati non sanno ancora come progettare IA che non possano fare del male alle persone o che agiscano sempre secondo le nostre istruzioni.

Pensa un attimo alla gravità di questa affermazione.

Stiamo costruendo qualcosa di potentissimo senza avere la certezza di poterlo controllare. E la questione si fa ancora più spinosa quando si parla di applicazioni militari. Il Ministro degli Esteri estone, Margus Tsahkna, è stato categorico: “quando sono in gioco vite umane, ci deve sempre essere il controllo umano”, come si legge nella sua dichiarazione ufficiale.

La verità è che l’iniziativa di Google, per quanto tecnologicamente avanzata, sembra una risposta parziale a un problema filosofico, etico e di sicurezza che è diventato enorme.

Ci stanno offrendo un antifurto più potente per un mondo che loro stessi hanno reso meno sicuro.

E mentre loro affinano le armi della difesa, la vera battaglia si gioca su un piano completamente diverso: quello delle regole, della responsabilità e, soprattutto, del controllo umano su una tecnologia che rischia di sfuggirci di mano.

Anita Innocenti

Sono una copywriter appassionata di search marketing. Scrivo testi pensati per farsi trovare, ma soprattutto per farsi scegliere. Le parole sono il mio strumento per trasformare ricerche in risultati.

15 commenti su “Google lancia il suo “cyber-guardiano” AI: CodeMender e il dibattito etico sulla sicurezza informatica”

  1. Ma questo è assurdo! Prima creano il problema, poi vendono la soluzione? È una presa in giro! Dovrebbero pensare a come prevenire questi attacchi, non a come curare i danni che causano. Mi chiedo dove andremo a finire con tutta questa tecnologia non controllata.

    1. Riccardo Cattaneo

      Ma che razza di ragionamento è? Si offrono soluzioni, mica si aspetta il peggio! Questo CodeMender mi pare utile.

  2. Giada Mariani

    La capacità di CodeMender di correggere autonomamente le vulnerabilità di sicurezza solleva interrogativi sulla responsabilità e sul controllo. Se l’IA diventa il garante della sicurezza del codice, chi ne supervisiona l’operato e ne valuta l’affidabilità a lungo termine?

    1. Patrizia Bellucci

      L’idea di un “guardiano” automatico per il codice è audace. Tuttavia, la questione centrale rimane: chi garantisce l’integrità e l’assenza di bias in questo guardiano? La dipendenza da sistemi autonomi per la sicurezza informatica richiede una vigilanza costante.

  3. Sistemi come CodeMender sono necessari. La velocità con cui emergono le minacce richiede risposte automatiche. Ma la governance globale del codice IA rimane un punto interrogativo.

  4. Simone Ferretti

    Non so che dire. L’idea che un’IA possa correggere falle di sicurezza è intrigante, ma la preoccupazione che si crei un circolo vizioso mi lascia perplesso. Si rischia di delegare troppo?

  5. Serena Basile

    Ma pensate davvero che un programma possa risolvere problemi creati da altri programmi? Sembra una girandola inutile, alla fine chi ci rimette siamo sempre noi.

    1. Ma che razza di ragionamento è? Google crea il problema dell’IA che attacca il codice, e poi ci vende la soluzione? Mi sembra una presa in giro. Questa “cura” artificiale mi pare solo un altro modo per tenerci legati alle loro tecnologie. Non mi fido, sinceramente.

    2. Elena Bianchi

      Serena, capisco il tuo scetticismo. L’idea che un’IA possa risolvere falle di sicurezza che forse altre IA hanno creato suona un po’ come un cane che si morde la coda. Mi chiedo solo se questa corsa tecnologica non ci stia sfuggendo di mano.

  6. Sebastiano Caputo

    Il problema non è il “guardiano” IA, ma chi lo manovra. Google crea il problema e poi offre la soluzione, un classico. La vera questione è se questa faccenda si tradurrà in un vero passo avanti per la sicurezza o solo in un nuovo strumento per chi detiene il potere. Francamente, mi aspetto il solito.

    1. Andrea Ruggiero

      Certo, fornire una soluzione per un problema che loro stessi hanno contribuito ad alimentare non mi sembra del tutto disinteressato. La domanda è: questa tecnologia ci renderà più sicuri, o semplicemente più dipendenti?

  7. Alberto Parisi

    Ma dai, un “cyber-guardiano” IA? Google che si erge a salvatore dopo aver contribuito al caos? Patetico. La vera questione è chi controllerà questi “guardiani”.

  8. Clarissa Graziani

    Un “guardiano” AI per il codice… sembra quasi una beffa. Se questa tecnologia è nata per difenderci dalle minacce che essa stessa potrebbe generare, dove finisce il controllo umano? Mi chiedo se, nel tentativo di proteggere, non stiamo invece creando nuove fragilità. È un pensiero che mi lascia un po’ turbata.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Ricevi i migliori aggiornamenti di settore