Le regole del digitale stanno cambiando.
O sei visibile o sei fuori. Noi ti aiutiamo a raggiungere i clienti giusti — quando ti stanno cercando.
Contattaci ora →
Tra promesse di accelerare la ricerca e timori di un’ondata di “AI slop”, il nuovo strumento di OpenAI solleva interrogativi sul futuro della fiducia nella scienza.
OpenAI ha lanciato Prism, un'IA presentata come collaboratore per la scienza. Sebbene l'obiettivo sia accelerare la ricerca, lo strumento solleva enormi preoccupazioni: il rischio concreto è che possa alimentare la produzione di "AI slop", contenuti di bassa qualità, minando le fondamenta di fiducia e verifica della ricerca scientifica e trasformando il progresso in rumore di fondo.
OpenAI lancia Prism: il “collaboratore” AI per la scienza o un’altra fabbrica di spazzatura?
OpenAI ha appena messo sul tavolo una nuova, potentissima carta: si chiama Prism, e viene presentata come una piattaforma di intelligenza artificiale pensata per diventare il braccio destro di scienziati e ricercatori. L’idea, sulla carta, è di quelle che fanno gola: accelerare le scoperte, analizzare dati complessi in un batter d’occhio e, in generale, dare una spinta al progresso scientifico.
Stando al documento ufficiale di presentazione, l’obiettivo è trasformare l’IA in un vero e proprio “collaboratore scientifico”, capace di formulare ipotesi e analizzare la letteratura esistente.
Diciamocelo, chi non vorrebbe un assistente così?
Un partner instancabile che macina dati mentre tu ti concentri sulle idee.
Peccato che dietro questa facciata promettente si nasconda un rischio enorme, un problema che sta già inquinando il web e che ora minaccia di fare lo stesso con la ricerca: il cosiddetto “AI slop”.
Ma che cosa succede quando questa incredibile potenza di calcolo viene usata non per scoprire la verità, ma per produrre contenuti a valanga, senza alcun controllo sulla qualità e veridicità?
Il diluvio dell’ “AI slop”: quando la quantità soffoca la qualità
Il termine “AI slop” descrive proprio questo: contenuti di bassa lega, spesso imprecisi o del tutto inventati, generati in massa dall’intelligenza artificiale per riempire pagine web, social media e, sempre più spesso, anche pubblicazioni accademiche.
Non stiamo parlando di un pericolo futuro, ma di una realtà già ben presente, come descritto da Ars Technica.
Pensa a studi scientifici generati in automatico, con grafici plausibili ma dati fittizi, o a revisioni di letteratura che mescolano fonti vere e inventate.
Il risultato è un rumore di fondo assordante, un vero e proprio inquinamento informativo dove distinguere il vero dal falso diventa un’impresa titanica.
Il lancio di uno strumento come Prism, sebbene pensato per scopi nobili, rischia di gettare benzina su questo fuoco.
Se oggi chiunque può generare un articolo mediocre con un clic, domani un ricercatore poco scrupoloso o semplicemente pressato dalle scadenze potrebbe produrre uno studio dall’apparenza impeccabile, ma completamente vuoto di sostanza scientifica.
La questione, quindi, non è tanto se verremo sommersi da questa marea di contenuti, ma perché stiamo continuando a costruire ondate sempre più grandi.
La vera partita non si gioca sulla tecnologia, ma sulla fiducia
Alla fine, il punto non è demonizzare la tecnologia. L’intelligenza artificiale ha il potenziale per rivoluzionare la scienza, su questo non ci piove. Il vero problema è che aziende come OpenAI, pur dichiarando di voler aiutare il progresso, sembrano più interessate a spingere l’adozione dei loro strumenti che a gestirne le conseguenze.
Certo, nel loro sito dedicato alla scienza parlano di collaborazione e di un futuro radioso, ma la domanda sorge spontanea:
stanno davvero considerando il rischio di erodere le fondamenta stesse della ricerca scientifica, che si basano sulla fiducia e sulla verifica?
Quando non potremo più fidarci di uno studio perché potrebbe essere stato “allucinato” da un’IA, o quando ogni scoperta dovrà essere controllata non solo per la sua validità ma anche per la sua autenticità, avremo perso qualcosa di fondamentale.
Il rischio non è solo quello di avere più spazzatura digitale in circolazione.
Il rischio è di creare un mondo in cui la verità scientifica diventa solo un’altra opinione, indistinguibile dal rumore di fondo generato da un algoritmo.

Hanno costruito un’altra catena di montaggio per paper scientifici, come se il problema fosse la lentezza della produzione e non il mare di contenuti irrilevanti. Stiamo scambiando il rigore per la velocità, un baratto che pagheremo caro. Quando inizieremo a premiare il pensiero?
Un fiume di dati indistinti. Un veleno lento che contamina la fonte. Se il sapere è inquinato, cosa berranno i nostri pensieri?
Vedo che l’omogeneizzato scientifico piace, un bel pappone di dati riciclati servito caldo per chi non ha tempo di masticare il pensiero critico. Ma il cervello poi a che servirà, come fermacarte di lusso?
Un robot da cucina che trasforma tutto in poltiglia. La scienza diventerà un insapore omogeneizzato?
Andrea Ruggiero, l’omogeneizzato si vende bene e costa poco produrlo. Qualcuno ci farà un sacco di soldi. La scienza diventa solo un altro mercato.
Un’altra catena di montaggio per produrre paper fotocopia e melma scientifica. Quale progresso?
Ci presentano un ‘braccio destro’ per la scienza, quando in realtà è solo un moltiplicatore di paper inutili, creati per fare numero. Chissà quando inizieranno a pubblicare scoperte basate su allucinazioni dell’algoritmo, che bello.
Laura, più che un braccio destro mi pare un’efficiente catena di montaggio per vanità accademiche. Presto le allucinazioni diventeranno la nuova peer review.