Le regole del digitale stanno cambiando.
O sei visibile o sei fuori. Noi ti aiutiamo a raggiungere i clienti giusti — quando ti stanno cercando.
Contattaci ora →
Ricercatori denunciano censure interne e fughe dall’azienda, sollevando interrogativi sulla trasparenza e l’etica di OpenAI di fronte agli impatti negativi dell’IA e alla pressione del profitto.
Una crescente ondata di dimissioni sta scuotendo OpenAI. Diversi ricercatori accusano l'azienda di insabbiare studi scomodi sui rischi dell'intelligenza artificiale per non danneggiare il business. La dirigenza nega, parlando di 'costruire soluzioni', ma il sospetto è che i profitti stiano avendo la meglio sulla trasparenza, tradendo la missione originaria dell'organizzazione.
Quando un pezzo grosso di un’azienda come OpenAI se ne va sbattendo la porta, c’è sempre da drizzare le orecchie. Ma quando a farlo sono diversi ricercatori, uno dopo l’altro, e tutti lamentano la stessa, pesantissima accusa, allora il campanello d’allarme non suona più: urla.
Stiamo parlando di una presunta censura interna, dove le ricerche scomode sugli impatti negativi dell’intelligenza artificiale sull’economia verrebbero sistematicamente insabbiate per non spaventare il mercato.
La domanda sorge spontanea: OpenAI, nata come paladina della ricerca aperta e trasparente, sta forse mettendo i profitti davanti alla verità?
La crepa nel muro del silenzio
Il casus belli, quello che ha fatto traboccare il vaso, è l’addio di Tom Cunningham, un ricercatore economico che ha accusato senza mezzi termini il suo team di essersi trasformato nel “braccio propagandistico del datore di lavoro”, come scrive Wired.
Parole pesantissime, che dipingono un quadro a tinte fosche.
Secondo Cunningham, la missione non era più fare ricerca genuina, ma produrre studi che facessero bella figura, che glorificassero la tecnologia di OpenAI. E non era solo, perché, come descritto da Futurism, almeno altri due colleghi avrebbero lasciato l’azienda per le stesse ragioni, stanchi di un ambiente sempre più “guardingo” nel pubblicare qualsiasi cosa potesse suonare come una cattiva notizia.
Diciamocelo, se chi deve studiare gli effetti di una tecnologia potentissima ha le mani legate, che tipo di futuro ci stanno costruendo?
La risposta dell’azienda a queste accuse, però, è forse ancora più preoccupante delle accuse stesse.
“Costruire soluzioni”, non evidenziare problemi
La replica interna non si è fatta attendere ed è arrivata sotto forma di un memo firmato da Jason Kwon, il Chief Strategy Officer di OpenAI.
La sua posizione?
Invece di pubblicare ricerche su “soggetti difficili”, l’azienda dovrebbe concentrarsi sul “costruire soluzioni”.
Kwon ha ammesso le preoccupazioni, ma ha rigirato la frittata: siccome OpenAI è “l’attore protagonista” nel mondo dell’AI, ha la responsabilità di “prendersi carico dei risultati”.
Tradotto dal linguaggio aziendale: perché creare allarmismi quando possiamo presentare direttamente la cura?
Peccato che questa logica sollevi un dubbio enorme: se non conosci a fondo la malattia, come puoi essere sicuro che la cura non faccia più danni del male?
Sembra quasi un invito a non guardare dove si mettono i piedi per paura di scoprire che il terreno è scivoloso.
E questa non è la prima volta che delle figure chiave abbandonano la nave, segnalando che la rotta sta diventando pericolosa.
Un esodo che la dice lunga
L’addio di Cunningham, infatti, è solo l’ultimo di una serie. Prima di lui, se ne sono andati William Saunders dal team “Superalignment”, preoccupato che la sicurezza venisse sacrificata sull’altare dei “prodotti nuovi e brillanti”, e Steven Adler, ex ricercatore sulla sicurezza che oggi critica apertamente i rischi di ChatGPT per la salute mentale.
Persino l’ex capo della ricerca politica, Miles Brundage, si era lamentato di quanto fosse diventato “difficile” pubblicare studi su argomenti importanti. Un coro di voci autorevoli che, una volta fuori, denunciano una cultura aziendale che sembra aver perso la sua bussola etica.
E come potrebbe essere altrimenti?
OpenAI non è più l’organizzazione no-profit delle origini. Oggi è una macchina da guerra for-profit che punta a una valutazione di 1 trilione di dollari e ha stretto accordi per centinaia di miliardi.
Certo, hanno lanciato iniziative come l’OpenAI Academy per riqualificare i lavoratori, ma viene da chiedersi se questi sforzi siano una soluzione reale o una foglia di fico per coprire una verità molto più scomoda.
Quando ci sono in ballo cifre del genere, la tentazione di nascondere la polvere sotto il tappeto è forte.
La vera domanda, quindi, è: possiamo ancora fidarci di chi, per vendere il futuro, sembra disposto a nascondercene i rischi?

Che dei ricercatori scoprano solo ora la natura commerciale del loro datore di lavoro è quasi commovente. La trasparenza è un costo operativo che viene tagliato non appena il prodotto inizia a vendere bene.
@Simone De Rosa La missione etica è la prima zavorra che si getta dalla nave quando il vento del profitto cambia. Questi ricercatori hanno solo scoperto di non essere sulla nave di Colombo.
@Simone De Rosa La missione etica era solo il marketing per la prima fase di funding.
Il profitto vince sulla narrazione etica, che sorpresa. Era solo posizionamento. Quanto ci è voluto per accorgersene?
La favoletta della “missione etica” non ha mai retto. Pura narrazione per investitori. Ora tentano di tappare le falle, ma è tardi. La questione non è se la loro reputazione crollerà, ma solo quando accadrà.
@Paola Montanari Altro che reputazione. Qui si parla del classico schema dove la spinta al profitto ignora i rischi sistemici fino al botto finale. Chissà chi sarà il primo a finire sotto un treno legale.
@Paola Montanari Non tappano falle, ci versano vernice fresca. La crepa strutturale resta. Quando cede la diga, trascina tutti nel baratro.
Quando il profitto supera l’etica, i rischi diventano enormi. La sicurezza delle persone non può essere un costo aziendale da tagliare.
@Eva Fontana La brand safety è un asset, non un costo. Lo capiranno troppo tardi.
Quando la missione originaria diventa un orpello di marketing e l’etica un costo da tagliare, i nodi vengono al pettine. Questi ricercatori hanno assistito alla metamorfosi di un’utopia in una normalissima, spietata, società per azioni. Una sceneggiatura purtroppo già scritta.
Lo scandalo non è la censura, ma la sorpresa di chi lavora in un’azienda con azionisti. È quasi tenero vederli scoprire che il profitto, alla fine, presenta sempre il conto con gli interessi.
I ricercatori che scappano con la loro etica intatta mi divertono. Pensavano che OpenAI fosse una no-profit e non un’azienda che vende il futuro?
La coscienza non è ancora un asset nel loro bilancio. Per questo chi ne ha una se ne va. L’etica è un bug da fixare o il vero upgrade che non vogliono rilasciare?
Hanno costruito una nave per esplorare mondi nuovi, ma ora la usano per la pesca a strascico dei profitti. I ricercatori, che erano la bussola, vengono buttati a mare. Mi chiedo quanto durerà la navigazione a vista.
Enrica Negri, la ciurma cerca un nuovo capitano con una mappa del tesoro etica.
Enrica Negri, la trasparenza è il primo costo che si taglia quando il profumo dei soldi supera quello della missione. I ricercatori sono solo una spesa da cancellare nel nuovo bilancio etico aziendale.
Camminano su una fune tra progresso e profitto. Se i ricercatori scendono, significa che la fune è troppo inclinata da una parte.
Nicolò Sorrentino, il problema non è la fune inclinata. È che sotto non c’è la rete di sicurezza. E noi siamo il pubblico pagante che rischia di essere schiacciato.
Che sorpresa. Un’azienda scopre di poter fare una montagna di soldi e mette da parte l’etica. L’idealismo non ha mai pagato le bollette di nessuno, figuriamoci le loro.