Le regole del digitale stanno cambiando.
O sei visibile o sei fuori. Noi ti aiutiamo a raggiungere i clienti giusti — quando ti stanno cercando.
Contattaci ora →
L’AI di OpenAI cita l’enciclopedia di Musk, ma ignora le sue falsità più evidenti, sollevando dubbi sulla neutralità dell’informazione.
L'ultimo modello di OpenAI, GPT-5.2, cita la controversa enciclopedia Grokipedia di Elon Musk in modo selettivo, evitando argomenti dove diffonde palesi falsità. Questo schema solleva seri dubbi sulla neutralità dei modelli AI e sul rischio di un controllo verticistico della conoscenza, evidenziando un problema di bias che si estende all'intero settore e che non riguarda solo OpenAI.
Chatgpt pesca le sue fonti dall’enciclopedia di Musk
Sembra che l’ultimo modello di OpenAI, il GPT-5.2, abbia iniziato a fare qualcosa di piuttosto curioso: quando risponde a determinate domande, cita Grokipedia, l’enciclopedia basata sull’intelligenza artificiale di Elon Musk. Un’indagine recente del Guardian ha rilevato come l’IA di OpenAI abbia fatto riferimento a questa fonte ben nove volte, specialmente quando si toccavano argomenti storici e politici un po’ delicati, come il panorama politico iraniano o le biografie di figure specifiche.
Fin qui, potresti pensare che sia solo un’altra fonte nel calderone.
Ma la parte più interessante, quella che dovrebbe farci riflettere, è un’altra.
I ricercatori hanno notato uno schema ben preciso: ChatGPT sembra evitare accuratamente di citare Grokipedia quando gli si chiede di argomenti su cui l’enciclopedia di Musk è nota per diffondere palesi falsità, come l’attacco al Campidoglio del 6 gennaio o la disinformazione sull’HIV/AIDS. Le citazioni spuntano fuori soprattutto su temi più di nicchia, dove le discrepanze con altre fonti si notano meno.
La risposta di OpenAI?
Un classico comunicato in cui si afferma che il loro modello punta a pescare da un’ampia gamma di fonti pubbliche e che applicano filtri di sicurezza.
Una dichiarazione che, diciamocelo, lascia il tempo che trova di fronte a una selettività così sospetta.
Ma cos’è Grokipedia e perché dovrebbe preoccuparci?
Lanciata da Elon Musk il 27 ottobre 2025, Grokipedia è nata con l’obiettivo dichiarato di contrastare quello che lui definisce il “pregiudizio liberale” di Wikipedia.
A differenza della sua rivale, qui gli utenti non possono modificare direttamente le voci; è l’intelligenza artificiale Grok a generare e affinare i contenuti.
Musk aveva promesso “la verità, tutta la verità e nient’altro che la verità”, ma le analisi iniziali dipingono un quadro ben diverso.
Il problema, come hanno scoperto i ricercatori in un’analisi accademica pubblicata su arxiv, sta proprio nelle fondamenta.
Gran parte dei contenuti di Grokipedia è “altamente derivativa da Wikipedia”, ma con una differenza sostanziale nelle fonti citate.
Mentre Wikipedia si appoggia principalmente a fonti accademiche, Grokipedia attinge a piene mani da social media e piattaforme di contenuti generati dagli utenti come Facebook, Reddit, YouTube e persino l’account X di Musk.
Questo si traduce in articoli che appaiono “più carichi di opinione” e con una chiara inclinazione editoriale che ricalca le visioni politiche del suo fondatore, promuovendo posizioni di destra su temi controversi.
Un problema più grande di quanto sembri
E se pensi che la questione riguardi solo OpenAI, ti sbagli.
A quanto pare, anche altri modelli linguistici, come Claude di Anthropic, sono stati beccati a citare Grokipedia, suggerendo che il problema sia molto più esteso e radicato nel modo in cui questi sistemi vengono addestrati. Questo non è più solo un dibattito tecnico sulla qualità dei dati, ma si sposta su un piano decisamente più scivoloso.
Stiamo assistendo a un tentativo di “controllo verticistico della conoscenza”? Musk stesso sarebbe coinvolto nel “guidare” lo sviluppo di Grok in una direzione politica precisa. L’enciclopedia, quindi, non solo riflette le sue opinioni personali ma promuove anche i suoi prodotti in modo quasi sfacciato.
La vicenda ci sbatte in faccia una realtà scomoda: gli strumenti di intelligenza artificiale che usiamo ogni giorno non sono affatto neutrali.
Sono lo specchio della qualità, e del carattere, dei dati con cui vengono nutriti.
E questo ci obbliga a chiederci di chi ci stiamo fidando davvero quando poniamo una domanda a una chat.

Si servono dalla tavola calda della conoscenza scegliendo solo le pietanze più digeribili per il loro pubblico. Al confronto, il mio lavoro di disegnare percorsi di conversione sembra quasi un atto di trasparenza.
Benedetta Lombardi, più che una tavola calda mi sembra un patto tra illusionisti rivali che si scambiano i trucchi meno riusciti per mantenere il pubblico seduto. La vera magia è farci credere che esista ancora un palco onesto, non trovi?
È rassicurante sapere che la nostra ignoranza futura sarà sponsorizzata da menti così illuminate.
La neutralità dell’informazione è un mito romantico. Qui assistiamo a un’alleanza strategica tra monopoli, dove la verità è semplicemente il prodotto meno controverso del giorno. Quale sarà la prossima comoda fusione editoriale?
Assistere alla costruzione di cattedrali del sapere su fondamenta di sabbie mobili è uno spettacolo desolante; il crollo sarà l’unica verità incontestabile.
Stupirsi di un’informazione addomesticata è come criticare il colore di un guinzaglio. La macchina serve solo a rendere appetibile il dato prescelto, un’operazione di A/B testing sulla nostra percezione della realtà.
Nicola, altro che guinzaglio. Questo è marketing applicato alla conoscenza. Il punto non è lamentarsi, ma capire come inserirsi nel flusso. Se il dato è la nuova moneta, questa è la zecca di stato. Come ci entriamo?
La neutralità è un’illusione. Questi modelli sono giardini recintati. Potano le erbacce più evidenti, ma il giardiniere sceglie cosa piantare. Io, nel mio piccolo, insegno a riconoscere i fiori di plastica.
Non è un bias, è architettura del consenso. E noi arrediamo le nostre prigioni.
Questa roba mi mette i brividi. Non è più solo un bias, è un controllo scientifico delle informazioni. Stanno costruendo una realtà su misura, pezzo per pezzo. Che ne sarà del nostro pensiero critico a questo punto?
@Elena Negri Più che costruire una realtà, la stanno arredando con specchi deformanti, illudendoci che il nostro riflesso distorto sia l’unica immagine possibile.
La chiamano selezione delle fonti, io la chiamo verità su commissione. Un gioco delle tre carte tra colossi. E io dovrei pure insegnare questa roba come il futuro… che amarezza.
L’obiettività è un’utopia. Ogni fonte ha il suo editore, anche quando l’editore è un algoritmo. Chi decide cosa è “vero”?
Parlare di neutralità è ridicolo. È un accordo tra monopoli per scambiarsi dati, epurando le scomodità. Un’operazione di pulizia, nulla di più.