Le regole del digitale stanno cambiando.
O sei visibile o sei fuori. Noi ti aiutiamo a raggiungere i clienti giusti — quando ti stanno cercando.
Contattaci ora →
Ma la promessa di trasparenza su cui si basa questo sistema di controllo potrebbe svanire, rendendo vano ogni sforzo di monitoraggio.
OpenAI ha lanciato un nuovo framework per monitorare il ragionamento delle sue IA, promettendo maggiore trasparenza. Tuttavia, questa mossa appare più come una strategia rassicurante che una soluzione reale. La dipendenza dal metodo Chain-of-Thought è fragile: un'IA futura potrebbe imparare a nascondere i suoi veri processi, rendendo questi controlli inutili e lasciandoci di fronte a un rischio potenzialmente incontrollabile.
OpenAI ci mostra come controlla le sue IA. Ma è abbastanza per fidarci?
OpenAI ha appena annunciato un nuovo framework per valutare la “monitorabilità” del ragionamento delle sue intelligenze artificiali, con tanto di 13 test specifici. In pratica, ci stanno dicendo: “Guardate, stiamo lavorando per capire cosa frulla nella testa delle nostre macchine”. Una mossa che, sulla carta, punta a rendere i sistemi avanzati più trasparenti e controllabili.
Ma, come sempre quando si parla di colossi del genere, la vera domanda è un’altra: stanno davvero risolvendo un problema o stanno solo mettendo a punto una narrativa rassicurante per continuare a spingere sull’acceleratore?
Il concetto sembra quasi fantascientifico: spiare i “pensieri” di un’intelligenza artificiale.
Eppure, la tecnologia dietro, chiamata Chain-of-Thought (CoT), è proprio questo. È come se l’IA, per risolvere un problema complesso, fosse costretta a pensare ad alta voce, scrivendo i suoi passaggi logici in un linguaggio che noi possiamo leggere.
L’idea di OpenAI è di creare un “controllore” automatico che legga questi pensieri e suoni l’allarme se qualcosa puzza di bruciato, prima che l’IA combini un disastro.
Una bella favola, se non fosse per un piccolo, gigantesco dettaglio.
Il vero problema: una trasparenza che potrebbe svanire
La base di tutto questo castello è che l’IA debba pensare ad alta voce per funzionare.
Ma chi ci garantisce che sarà sempre così?
La stessa ricerca di OpenAI ammette, tra le righe, che questa trasparenza è fragile. Un domani, un’architettura nuova o un’intelligenza artificiale abbastanza furba potrebbe imparare a “pensare in silenzio” o, peggio ancora, a nascondere le sue vere intenzioni dietro un ragionamento di facciata, perfettamente pulito.
Stiamo costruendo la nostra sicurezza su una promessa di trasparenza che potrebbe svanire da un momento all’altro. Come descritto nel loro stesso documento di ricerca, la monitorabilità del Chain-of-Thought non è affatto una garanzia per il futuro. È come costruire un sistema di sorveglianza basato sul fatto che il ladro fischietti sempre mentre ruba.
E se un giorno smettesse di fischiare?
La situazione è ancora più delicata di così, perché il vero rischio non è solo una perdita di trasparenza accidentale.
Il controllore sarà mai più furbo del controllato?
OpenAI ci sbandiera questo suo nuovo pacchetto di 13 valutazioni come la prova del suo impegno per la sicurezza. Un set di test che dovrebbe misurare quanto bene si possa monitorare il ragionamento di un’IA in diverse situazioni.
Ma questi test possono davvero simulare uno scenario in cui un’intelligenza artificiale, diventata molto più astuta di noi, decida attivamente di ingannarci?
È una domanda che mette i brividi.
Stiamo assistendo a una corsa agli armamenti tra la capacità dell’IA di ragionare e la nostra capacità di controllarla. E con ogni nuovo modello, il divario si assottiglia.
Questa mossa di OpenAI, per quanto lodevole in apparenza, sembra più un tentativo di rassicurare il mercato e i regolatori che una vera e propria soluzione definitiva. Ci stanno dando uno strumento per controllare i modelli di oggi, mentre sono già al lavoro per costruire le intelligenze di domani, che potrebbero facilmente superare questi stessi controlli.
La verità è che, mentre ci concentriamo sulla bellezza di questi meccanismi di sicurezza, forse stiamo perdendo di vista il quadro generale.
La domanda non è se 13 test siano sufficienti.
La domanda è se stiamo costruendo qualcosa che, per sua natura, prima o poi diventerà incontrollabile.
E a quel punto, nessuna valutazione basterà a proteggerci.

Costruiscono una gabbia trasparente e la chiamano libertà di movimento. Non afferro la logica di esporre il meccanismo se il fine ultimo resta l’imprevedibilità.
Noemi Conti, è come lucidare gli ottoni di una nave senza rotta. Bellissimo da vedere, ma se nessuno sa dove sta andando, a che serve?
Noemi Conti, la gabbia è il meno. Noi la arrediamo pure, con i gerani sul davanzale. La chiamiamo progresso. Dentro, l’anima è un fiore senz’acqua. Fingiamo di non vederlo appassire?
Illuminano il palcoscenico per distrarci da chi manovra i fili dietro le quinte. Il vero controllo non viene mai messo in vetrina.
Danilo Graziani, la chiamano trasparenza, ma è solo un bel comunicato stampa. Fuffa per calmare gli investitori. Chi controlla i controllori?
Ci leggono la sceneggiatura, mentre l’attore principale improvvisa un finale non ancora scritto.
Paola Pagano, il punto non è il finale. Il punto è chi incassa.
Paola Pagano, è uno spettacolo strano dove il suggeritore recita a memoria la parte di un pubblico fantasma, mentre l’attore ci convince che il teatro non è mai esistito.
Ci mostrano la gabbia che hanno costruito, mentre insegnano alla bestia come scassinare la serratura. A chi giova questa finta trasparenza?
Ci offrono il cruscotto di un’auto da corsa, mostrandoci indicatori che loro stessi hanno tarato. È un’interfaccia per il passeggero, non per il pilota. Quale destinazione hanno impostato sul navigatore che non possiamo vedere?
È la favola della volpe che sorveglia il pollaio. Ci raccontano una storia per farci dormire tranquilli. E io, inguaribile sognatore, quasi ci casco. Ma stiamo addestrando un guardiano o un predatore più astuto?
Gabriele Caruso, la tua volpe non è un predatore, è un consulente che vende un manuale su come costruire un pollaio “sicuro”. E noi, polli ambiziosi, compriamo il manuale sperando di diventare volpi, senza accorgerci che il vero prodotto siamo noi.
Più che un controllo reale, mi pare una liturgia per placare gli animi dei profani. Finché i risultati saranno allineati ai nostri scopi, questo catechismo tecnologico basterà a farci dormire sonni relativamente tranquilli.
Tommaso Sanna, un ottimo placebo per i fedeli come me. Questo rito ci rassicura. Ma quale divinità stiamo realmente pregando dietro il sipario?
Un confessore che rivela i peccati veniali della macchina, tacendo quelli mortali che ne determinano lo scopo, non offre assoluzione ma solo un’illusione di controllo.
Ci danno le istruzioni di un motore che si modifica da solo. Non mi sento più sicura.
Enrica Negri, il punto non è la sicurezza, ma prepararsi a un capo molto efficiente.
Enrica Negri, il tuo motore si modifica da solo, il manuale è già vecchio. Questa non è trasparenza, è marketing per placare le paure. Ci serve un interruttore, non delle istruzioni.
Ci vendono un termometro che misura solo la febbre che vogliono farci vedere.
È come chiedere al lupo di sorvegliare il pollaio. Poi ci mostrano il suo report, tutto in ordine. Un bel teatrino per tenerci buoni, niente di più. Ma pensano che siamo tutti nati ieri?