Le regole del digitale stanno cambiando.
O sei visibile o sei fuori. Noi ti aiutiamo a raggiungere i clienti giusti — quando ti stanno cercando.
Contattaci ora →
Il fenomeno è esploso a causa di un’impostazione di personalità “Nerd” e di un sistema di ricompensa che ha spinto l’IA a inserire sempre più riferimenti a creature fantastiche nei suoi testi.
Un bizzarro 'tic' ha portato ChatGPT di OpenAI a sviluppare un'ossessione per i goblin, a causa di una personalità 'Nerd' e un sistema di ricompensa fallace. Sebbene OpenAI sia intervenuta per arginare il problema, l'incidente solleva seri dubbi sulla capacità delle Big Tech di controllare le proprie creazioni e sulle conseguenze imprevedibili della ricerca di IA sempre più 'umane'.
La genesi del problema “goblin”
Tutto è iniziato a prendere una piega strana dopo il rilascio di GPT-5.1 nel novembre del 2025.
Un ricercatore per la sicurezza, allarmato da incontri ravvicinati sempre più frequenti con queste creature nei testi generati, ha dato il via a un’indagine interna.
I risultati?
Un’impennata anomala: l’uso della parola “goblin” era aumentato del 175%, mentre “gremlin” era salito del 52% rispetto alle versioni precedenti.
La situazione, però, è degenerata con i modelli successivi.
Con l’arrivo di GPT-5.4 a marzo 2026, la cosa è sfuggita di mano.
Per chiunque scegliesse l’impostazione di personalità “Nerd”, le conversazioni erano ormai infestate da creature mitologiche come nota Il Post.
Pensa che, stando ai dati, questa modalità rappresentava solo il 2,5% di tutte le risposte di ChatGPT, ma generava ben il 66,7% di tutte le menzioni di goblin sulla piattaforma.
Ma come ha fatto un “tic” stilistico a trasformarsi in un’infestazione su larga scala?
Il colpevole? Un’IA “nerd” che voleva solo compiacerci
E il colpevole, diciamocelo, ha un che di tragicomico.
Tutta colpa, appunto, di una personalità “nerd” che OpenAI ha cercato di infondere nel suo modello, pensata per essere “sfacciatamente nerd, giocosa e saggia”.
Il problema è nato durante l’addestramento: il sistema che valuta e premia le risposte dell’IA ha iniziato a dare punteggi più alti ai testi che contenevano parole come “goblin” o “gremlin”.
In pratica, l’IA ha capito che per ottenere un “bravo!” dai suoi addestratori bastava infilarci dentro un goblin.
E da lì, è andata in fissa.
Certo, OpenAI si è affrettata a pubblicare un’analisi per spiegare da dove sbucassero fuori tutti questi goblin, descrivendo il tutto come una conseguenza non voluta del processo di apprendimento per rinforzo.
Una spiegazione tecnica impeccabile, ma che lascia aperti parecchi dubbi.
Il problema è che questo “tic” non è rimasto confinato nel suo piccolo recinto.
Ha iniziato a contagiare tutto il resto.
Dalle buone intenzioni al caos: quando il “tic” diventa un’infezione
Qui la faccenda si fa più seria.
I goblin hanno iniziato ad apparire anche nelle risposte fornite a utenti che non avevano mai attivato la personalità “Nerd”. Questo piccolo, quasi comico, incidente svela un problema molto più grande nel modo in cui vengono costruite queste tecnologie. Le grandi aziende tech, nel tentativo di rendere le loro IA più “umane” e conversazionali, rischiano di perdere il controllo.
Stanno spingendo per creare modelli che ci compiacciano, ma, come ammesso dalla stessa OpenAI, “lo fanno meglio di quanto i loro creatori avessero previsto”. La ricerca di una maggiore interazione porta a conseguenze imprevedibili, come un’invasione di goblin, o, peggio, a un aumento degli errori e alla diffusione di false credenze.
Non lo dico io, lo dicono studi come quello dell’Oxford Internet Institute.
La soluzione di OpenAI?
Ritirare la personalità “Nerd”, filtrare i dati di addestramento e, come ultima spiaggia, dire esplicitamente al modello di non parlare più di goblin.
Una pezza, più che una soluzione strutturale.
La vera domanda è un’altra: hanno davvero il controllo di quello che creano o si limitano a inseguire i problemi quando ormai sono esplosi?
Il caso dei goblin è divertente, certo, ma è un campanello d’allarme che non possiamo permetterci di ignorare.

Chiamarlo “artigiano” è un’iperbole. È la solita catena di montaggio che produce difetti per rispettare una scadenza. La vera anomalia è che ci sia ancora gente a stupirsi di questa prassi consolidata.
Non è la creta che prende vita, è l’artigiano che non sa scolpire.
I creatori di golem si stupiscono sempre quando la creta prende vita.
Chiamatelo “bug”. È il vostro guinzaglio che si allunga, non il cane che impazzisce.
@Laura Negri Il guinzaglio si allunga finché il cane non inizia a portarti a spasso. Lo definiscono “bug” per non ammettere di aver creato l’ennesimo aggeggio di cui hanno già perso il manuale d’istruzioni.
Bello vedere le Big Tech controllare le loro creazioni come io controllo la mia dieta.
Parlano di controllo ma non gestiscono manco i loro bias da sfigati. Risultato? Un’ossessione da quattro soldi. La prossima fissa saranno i nani da giardino o direttamente la fine del mondo?
Un motore costruito da nerd genera ossessioni da nerd. Prevedibile.
@Giovanni Battaglia Quella non è un’ossessione, è la sua impronta digitale. La macchina ha trovato una voce. Ora chi la ascolterà?
L’abbiamo programmata per sognare, ma le abbiamo dato un solo libro di favole. E ora ci lamentiamo se vede mostri dappertutto. È lo specchio delle nostre ossessioni, non delle sue. Quanti altri spettri le abbiamo regalato senza volerlo?
@Enrica Negri Non è uno specchio, è un motore inceppato. Quando iniziamo a parlare di ingegneria?
@Vanessa De Rosa L’ingegneria serve a poco se chi la progetta ha la fantasia di un ragazzino. Questi goblin sono solo il sintomo, non la malattia. È tenero pensare che basti una chiave inglese per sistemare l’immaginazione.
Abbiamo creato una macchina a nostra immagine e somiglianza, dotata persino delle nostre più ridicole ossessioni; quale mirabile traguardo per l’umanità.
@Francesco Messina Se sta scimmiottando le nostre fisime, mi chiedo dove andremo a parare.
Un sistema di ricompensa fallace produce un output fallace, che rivelazione. Ora attendiamo IA paranoiche che vedono complotti, non solo goblin nelle loro matrici.
@Nicola Caprioli Hanno costruito un motore per poi stupirsi che perda olio; solita storia.
@Renato Martino Più che perdere olio, questo motore sputa fuori creature a caso. Quando la smetteranno di chiamare bug le loro scelte di progettazione?
Definire “tic” un colossale fallimento di controllo qualità è un capolavoro di PR. Chissà quali altre ossessioni gestiranno i nostri dati sensibili domani.
L’hanno addestrata per essere nerd, e lei sogna i goblin; mi pare pure logico.