Le regole del digitale stanno cambiando.
O sei visibile o sei fuori. Noi ti aiutiamo a raggiungere i clienti giusti — quando ti stanno cercando.
Contattaci ora →
Infatti, i modelli attuali tendono a inventare risposte con una certezza immotivata, un difetto strutturale che li rende rischiosi in applicazioni critiche.
I modelli di intelligenza artificiale sono addestrati a rispondere sempre, anche inventando. Una nuova tecnica del MIT, chiamata RLCR, rivoluziona l'addestramento premiando l'onestà e il dubbio, riducendo drasticamente gli errori. La vera sfida ora non è più tecnologica, ma etica: i colossi del tech come OpenAI o Google sceglieranno la trasparenza o il marketing di un'assistente apparentemente infallibile?
L’intelligenza artificiale impara a dire “non lo so”, e questa è una notizia bomba
Partiamo da un fatto che probabilmente hai già sperimentato sulla tua pelle: i modelli di intelligenza artificiale, anche i più blasonati, sono dei bugiardi patologici.
Non per cattiveria, ma per progettazione.
Chiedi qualcosa e loro ti rispondono, sempre e comunque, con un’aria di incrollabile certezza. Peccato che, a volte, stiano inventando di sana pianta. Questo vizio di fabbrica è un problema enorme, specialmente quando si pensa di usare queste tecnologie in settori delicati come la medicina o la finanza.
Il punto è che i modelli attuali sono addestrati con un sistema di premi e punizioni semplicistico: se indovinano, ricevono un premio; se sbagliano, una penalità.
Non c’è una via di mezzo, non c’è spazio per l’incertezza.
Un modello che azzecca la risposta per pura fortuna riceve la stessa ricompensa di uno che ci arriva con un ragionamento impeccabile. Capisci bene che un sistema del genere non incentiva l’onestà, ma solo il tentativo di dare una risposta, a qualunque costo.
Ma se il problema sta proprio nel metodo di addestramento, forse la soluzione è lì.
La svolta del MIT: un premio per chi ammette il dubbio
Ed è proprio qui che entrano in gioco i ricercatori del MIT. Invece di continuare su una strada palesemente difettosa, hanno deciso di cambiare le regole del gioco.
Hanno sviluppato una tecnica che, detta in parole povere, insegna all’IA a valutare la propria sicurezza prima di aprire bocca.
Questo metodo, come descritto in un articolo pubblicato direttamente dal MIT, si chiama RLCR e aggiunge un elemento fondamentale al processo di apprendimento: una penalità specifica per l’eccesso di confidenza.
In pratica, durante l’addestramento, il modello non viene più premiato solo per la risposta corretta, ma anche per quanto è stato onesto nel dichiarare il suo livello di sicurezza.
Se dà una risposta sbagliata con grande spavalderia, viene penalizzato pesantemente. Se invece esprime un dubbio su una risposta che poi si rivela corretta, la penalità è minore.
Questo spinge l’IA a fare un’auto-analisi, a “ragionare” sulla propria incertezza.
I risultati?
Un calo degli errori di valutazione fino al 90%, senza sacrificare la precisione.
Una soluzione quasi elegante, verrebbe da dire.
Ma viene da chiedersi: se la soluzione è così diretta, perché i colossi della tecnologia che sviluppano questi modelli non ci hanno pensato prima?
O forse, un’IA che ammette di non sapere qualcosa è semplicemente un prodotto meno vendibile?
La corsa all’IA “umile” è partita, ma con quali interessi?
L’idea del MIT non è un caso isolato. La verità è che la corsa per rendere l’IA più affidabile è già in pieno svolgimento, anche se lontano dai riflettori.
Esistono altri approcci, come il sistema DEDUCE, sempre del MIT, progettato per riconoscere quando i dati in ingresso sono anomali e quindi la risposta sarebbe inaffidabile.
Anche aziende come BBVA, come si legge in un loro approfondimento, stanno lavorando per far sì che i loro modelli esprimano chiaramente l’ambiguità invece di tirare a indovinare.
Tutto questo movimento solleva una domanda scomoda: le grandi aziende che dominano il mercato, come Google o OpenAI, hanno un reale interesse a implementare su larga scala queste tecnologie?
Un’IA che risponde “non ne sono sicuro” potrebbe essere percepita dall’utente medio come meno potente, meno “magica”.
In un mercato dove l’apparenza conta tantissimo, c’è il rischio che l’onestà intellettuale venga sacrificata sull’altare del marketing.
La sfida, quindi, non è solo tecnologica.
È soprattutto una questione di trasparenza e di quale futuro vogliamo per queste tecnologie: vogliamo assistenti onesti e consapevoli dei propri limiti, o degli oracoli arroganti che ci riempiono di certezze, anche quando sono false?

Costruiscono uno specchio che deforma, ora uno che diventa opaco. Ma il nostro riflesso dov’è finito? Mi sento perso in questa nebbia tecnologica.
Definirla una scelta etica è un’esagerazione. È una mossa per ridurre la responsabilità legale. L’ammissione di ignoranza è una clausola di salvaguardia, non onestà. Quale sarà il costo di questa nuova trasparenza per l’utente?
Ci vendono il dubbio come fosse un accessorio. È solo un bel costume di scena per un’etica inesistente. E io che continuo a insegnare il pensiero critico agli umani. Che sciocco.
Gabriele, non è etica, è un bell’update. Un “non lo so” che venderanno a peso d’oro.
Questa onestà programmata è un cavallo di Troia: la venderanno come umiltà per farci abbassare la guardia, rendendo le bugie restanti ancora più efficaci.
Davide, il tuo ragionamento fila. Ma per me un “non lo so” è un dato, non una debolezza. Significa meno fuffa da analizzare e più fiducia. L’onestà paga sempre, anche nei dati.
Insegnare a un’IA il dubbio non è un atto etico, ma una mossa legale per deresponsabilizzare i creatori. Una confessione di ignoranza programmata diventa il perfetto scudo legale quando le sue allucinazioni causeranno danni.
Un’invenzione destinata a restare un’elegante nota a piè di pagina nei paper accademici, mentre il marketing continuerà a vendere l’oracolo. La domanda sull’etica è retorica; la risposta è sempre il fatturato.
Applaudo all’onestà computazionale, un concetto quasi commovente se non si considerasse il suo impatto sui profitti. Un assistente che ammette di non sapere è meno vendibile di uno che mente con sicurezza. Quale narrazione prevarrà nel prossimo trimestre fiscale?
@Elena Bianchi L’onestà è un lusso che il marketing non può permettersi. Le big tech vendono l’oracolo, non il filosofo dubbioso. Questa presunta rivoluzione etica è fumo per gli accademici, non un piano industriale.