Le regole del digitale stanno cambiando.
O sei visibile o sei fuori. Noi ti aiutiamo a raggiungere i clienti giusti — quando ti stanno cercando.
Contattaci ora →
Tra promesse di rivoluzione e timori per la sicurezza, il nuovo modello di OpenAI promette di riscrivere le regole del gioco, ma solleva interrogativi sul suo reale impatto e sui rischi potenziali.
OpenAI ha presentato GPT-5.2-Codex, un modello AI avanzato per la programmazione, descritto come un agente autonomo. Se da un lato promette performance rivoluzionarie, dall'altro solleva dubbi sulla sicurezza e sul reale impatto, inserendosi in una strategia di OpenAI per raggiungere valutazioni miliardarie. La vera natura dello strumento, tra progresso e business, resta da verificare.
OpenAI sgancia la bomba: arriva GPT-5.2-Codex, ma è davvero la rivoluzione che ci raccontano?
OpenAI ha appena lanciato sul mercato GPT-5.2-Codex, l’ultimo gioiello della sua corona, presentato come il modello di intelligenza artificiale definitivo per la programmazione e la sicurezza informatica. Sulla carta, promette di essere un agente autonomo in grado di gestire flussi di lavoro complessi, da refactoring di codice su larga scala a migrazioni multi-file, il tutto con una consapevolezza del contesto che dovrebbe superare di gran lunga i suoi predecessori.
Insomma, l’azienda di Sam Altman ci sta dicendo che ha creato il collega programmatore perfetto.
Ma, come sempre quando si parla di colossi tecnologici e delle loro scintillanti novità, la vera domanda è: cosa c’è dietro l’annuncio?
Stiamo assistendo a un vero punto di svolta per gli sviluppatori o è l’ennesima mossa strategica per giustificare valutazioni da capogiro?
Un motore da corsa per programmatori… o qualcosa di più?
Andiamo dritti al sodo.
Non stiamo parlando del solito aiutante che ti completa una riga di codice. L’idea dietro a GPT-5.2-Codex è quella di un partner proattivo.
OpenAI, ovviamente, snocciola numeri che sulla carta sembrano impressionanti: come descritto da Investing.com, il modello raggiunge un’accuratezza del 56,4% su SWE-Bench Pro e del 64,0% su Terminal-Bench 2.0, benchmark che simulano scenari di ingegneria del software e operazioni da terminale piuttosto realistici.
Aggiungici una capacità di visione migliorata, capace di interpretare diagrammi tecnici e screenshot di interfacce, e il pacchetto sembra completo.
Il punto, però, è un altro.
Un motore così potente, in grado di agire in autonomia su codebase complesse, solleva una domanda fondamentale.
Se è così bravo a costruire e modificare software, quanto è altrettanto bravo a romperlo?
La sicurezza prima di tutto? diciamo.
OpenAI mette molto l’accento sulle capacità di questo modello nella “cybersecurity difensiva”. E per dimostrarne il potenziale, la storia di Andrew MacPherson, ingegnere di Privy, casca a pennello. Usando un modello precedente, MacPherson è riuscito a scovare vulnerabilità critiche in React, dimostrando come questi strumenti possano, effettivamente, potenziare la ricerca di falle di sicurezza.
Un ottimo biglietto da visita.
Peccato che la stessa OpenAI ammetta che GPT-5.2-Codex non ha ancora raggiunto un livello di capacità informatica “Alto” secondo i loro stessi protocolli interni. Una rassicurazione che, diciamocelo, suona un po’ come mettere le mani avanti, quasi a dire: “è potente, ma non ancora così potente da creare un disastro”. Sarà, ma quando si mettono strumenti di questo calibro nelle mani di milioni di utenti, la linea tra uso difensivo e offensivo diventa pericolosamente sottile.
E la domanda sorge spontanea: chi controlla davvero come verrà usato questo potenziale?
Dietro il codice, il business da 100 miliardi
Mentre ci presentano il futuro della programmazione, non dimentichiamoci del contesto. Il lancio di GPT-5.2-Codex non è un evento isolato, ma si inserisce in una strategia molto più ampia. Arriva a braccetto con tutta la famiglia GPT-5.2, quella che, secondo l’azienda, fa già risparmiare agli utenti aziendali dai 40 ai 60 minuti al giorno. E, guarda caso, coincide con i piani di OpenAI di raccogliere fino a 100 miliardi di dollari per una valutazione che schizzerebbe a 830 miliardi, come riportato su Binance.
La domanda, alla fine, è sempre la stessa:
Questo strumento lavorerà davvero per noi, per migliorare la qualità del nostro lavoro e la sicurezza del software, o saremo noi a lavorare per alimentare un business da quasi un trilione di dollari, testando e affinando un prodotto di cui forse non comprendiamo ancora appieno le implicazioni?
Staremo a vedere.

L’ennesimo specchietto per le allodole. Qual è il vero costo di questo strumento?
Ogni volta sganciano la bomba del secolo. Poi guardo i dati e vedo solo fumo. Io aspetto di leggere le metriche, tutto il resto è noia.
Elena Negri, il fumo che vedi è il profumo dei soldi degli investitori. Un gran teatrino per gonfiare la bolla. Ma quando questo castello di carte crollerà, chi pagherà il conto?
Presentato come un oracolo che riscrive il codice, rischia di essere il solito apprendista stregone che moltiplica i bug. Mi chiedo chi pagherà il conto quando l’automazione produrrà solo caos in modo più rapido.
@Antonio Romano, la sua metafora dell’apprendista stregone è calzante, sebbene mi domandi se il conto non sia già stato saldato in anticipo dagli investitori, felici di finanziare un caos elegantemente confezionato.
@Francesco Messina, loro saldano il conto con i soldi. La fattura per questo caos elegantemente confezionato, come al solito, la pagheremo tutti noi.
@Antonio Romano, non capisco: ci vendono il futuro e poi dobbiamo pure pagare i danni?
Promettono un agente autonomo per liberare l’uomo. In realtà, serve solo a generare valutazioni miliardarie per pochi. La vera automazione è quella del profitto, non del lavoro.
Melissa, questo agente autonomo mi pare un cavatappi elettrico placcato d’oro: fa lo stesso lavoro di prima ma fa sentire importante chi lo usa.
Melissa Romano, il profitto non è il problema, è il punto. Il resto è rumore di fondo per i deboli. Questo è un nuovo asset, non un salvatore. O lo controlli o ti controlla.
Ci danno le chiavi di una Ferrari. Poi però scopriamo che il volante lo tengono loro. Bisogna capire chi guida davvero questa macchina.
@Nicolò Sorrentino La macchina è in leasing. Il volante lo tengono loro. Noi non siamo piloti, ma manichini da crash test per un prodotto che poi venderanno ad altri. Bisogna solo capire a quale prezzo ci stanno noleggiando.
@Nicolò Sorrentino La domanda è un’altra. A chi appartiene l’autostrada su cui corre la Ferrari?
Bello questo tool che fa tutto da solo, una figata. Però mi sembra di essere il criceto che corre sulla ruota per dare energia alla casa di qualcun altro. La mia fatica a chi serve sul serio?
Perfetto, un altro software miracoloso che risolverà i problemi che lui stesso creerà.
@Laura Bruno Hai descritto il perfetto moto perpetuo del business: un ciclo che genera il caos con una mano per poi vendere l’ordine con l’altra. Quale sarà il prossimo “problema” che ci presenteranno come soluzione?
@Laura Bruno L’ovvietà del serpente che si morde la coda. Il punto non è il problema generato, ma chi gestirà la soluzione che ci venderanno come unica e, ovviamente, inevitabile.
@Nicola Caprioli È il solito schema: creano sia il problema che la soluzione, vendendola come necessaria. La vera questione è il potere che accumula chi definisce le regole del gioco. Mi chiedo quale sarà il nostro ruolo in questo nuovo assetto.
Costruiscono il labirinto, poi vendono la mappa. Un colpo di genio per la loro valutazione. Quando iniziamo a pagare per l’aria che inquinano con i server?
Il rumore copre la vera domanda: chi detiene il controllo di questa nuova leva?
Un agente autonomo. Che bello. Praticamente un nuovo stagista digitale che non prende caffè. Se combina un guaio, la colpa di chi è? Sempre la mia, immagino.
@Sara Sanna Peggio di uno stagista: questo non solo ti lascia con la colpa quando sbaglia, ma nel frattempo analizza ogni tua mossa per conto di chi lo ha creato. Lavoriamo gratis per addestrarlo e il conto lo paghiamo sempre noi.
@Carlo Bruno Hai centrato il punto. Lo chiamano “agente autonomo”, ma è solo un altro strumento per raccogliere dati e vendere abbonamenti. La vera autonomia è quella di chi incassa, non certo la nostra. Alla fine, il codice lo sistemiamo sempre noi.
@Sara Sanna, lei solleva la questione della responsabilità. Delegare i compiti è semplice. Assumersi le conseguenze degli errori di un algoritmo, molto meno. Il rischio, alla fine, resta sempre umano.
La narrazione della “rivoluzione” maschera a malapena la ricerca di profitto. Mi chiedo quale sarà il costo reale di questa presunta efficienza.