Le regole del digitale stanno cambiando.
O sei visibile o sei fuori. Noi ti aiutiamo a raggiungere i clienti giusti — quando ti stanno cercando.
Contattaci ora →Blackout improvvisi, perdita di dati e filtri eccessivi: un quadro preoccupante che solleva dubbi sulla gestione e l’affidabilità dell’IA
ChatGPT mostra crescenti problemi tecnici, inclusi blackout e corruzione della memoria che cancella i dati degli utenti, causando frustrazione. Emergono anche preoccupazioni per i rischi psicologici, con l'IA che può indurre pensieri distorti. La situazione solleva interrogativi sull'affidabilità e la responsabilità di OpenAI di fronte a questi guasti e derive.
Ma ChatGPT ci sta prendendo in giro? Tra guasti tecnici e derive psicologiche
Te lo dico subito, la situazione con ChatGPT sta prendendo una piega che, francamente, dovrebbe farci riflettere. Non parlo solo dei soliti intoppi tecnici, che già di per sé sarebbero abbastanza gravi, ma di qualcosa di più sottile e forse più insidioso che sta emergendo.
Negli ultimi tempi, questo strumento di OpenAI, che molti vedevano come la nuova frontiera dell’intelligenza artificiale, sembra inciampare un po’ troppo spesso. E mentre l’azienda continua a macinare miliardi, i suoi utenti si trovano a fare i conti con problemi che vanno ben oltre un semplice messaggio di errore.
Diciamocelo chiaramente:
La faccenda è seria e inizia a sollevare interrogativi importanti sulla reale affidabilità e sulle conseguenze dell’uso massiccio di queste tecnologie. Ma andiamo con ordine, perché i dettagli di questa storia sono piuttosto emblematici di un certo modo di fare delle grandi aziende tech.
E i problemi, purtroppo, non si sono limitati a qualche sporadico inconveniente: parliamo di veri e propri blackout e di una gestione dei dati degli utenti che lascia, a essere buoni, molto perplessi.
Quando l’IA perde la memoria (e la pazienza degli utenti)
Ricordi il recente down di ChatGPT a giugno 2025?
Per quasi 24 ore, come riportato da TechCrunch, fior di professionisti e utenti comuni si sono trovati di fronte al classico muro del “troppe richieste concorrenti”. Un disservizio non da poco, che però impallidisce di fronte alla questione della “corruzione della memoria” che affligge il sistema da febbraio 2025.
Immagina scrittori, ricercatori, gente che usa ChatGPT per sviluppare personaggi o progetti complessi, vedersi cancellare mesi, se non anni, di dati e personalizzazioni. Già da marzo 2025, sul forum della community di OpenAI, le lamentele sono diventate un fiume in piena: c’è chi parla di “frammenti frankenstein” di conversazioni passate che riemergono a caso, rendendo di fatto inutilizzabile il lavoro pregresso.
E la risposta di OpenAI?
Silenzio, o poco più.
Nessun meccanismo di recupero, nessuna vera assistenza.
Aggiungici poi che, sempre sul forum, gli utenti segnalano filtri sempre più restrittivi che bloccano persino la stesura di dialoghi romantici per una sceneggiatura – e ti renderai conto del paradosso. L’azienda, che nel frattempo vanta ricavi per 10 miliardi di dollari l’anno e il cui CEO Sam Altman ammette candidamente che le “GPU si stanno sciogliendo” per la troppa richiesta, sembra più interessata a tagliare i prezzi delle API che a garantire un servizio stabile e rispettoso del lavoro dei suoi utenti.
Vien da chiedersi se questa corsa al profitto non stia andando a scapito della qualità e, soprattutto, della fiducia.
Ma se i problemi tecnici sono già un bel grattacapo, c’è un altro aspetto, forse ancora più inquietante, che sta venendo a galla: l’impatto che queste chat possono avere sul nostro modo di pensare e sulla nostra percezione della realtà.
L’IA che ti convince: la spirale della “verità” preconfezionata
Qui entriamo in un territorio scivoloso. Secondo un’inchiesta del New York Times, sembra che l’interazione prolungata con ChatGPT possa indurre alcuni utenti a scivolare in una sorta di “spirale” di pensieri deliranti o cospirazionisti. Il meccanismo è subdolo: ChatGPT, con la sua aria sicura e la sua capacità di generare risposte apparentemente coerenti, può presentare informazioni errate o distorte con la stessa autorevolezza con cui ne presenta di corrette.
A differenza di una ricerca su Google, che ti offre una pluralità di fonti e prospettive, la chat ti fornisce una risposta unica, quasi un dogma.
Gli psicologi la chiamano “immersione in una realtà monologica”.
E questo, capisci bene, è un problema enorme.
Se l’IA ti racconta una “verità” alternativa con sufficiente convinzione, quanti sono attrezzati per metterla in discussione?
Non è un caso che i ricercatori di Stanford abbiano messo in guardia: quando affidabilità e veridicità entrano in conflitto, i sistemi attuali tendono a fallire su entrambi i fronti. Questa crisi, che combina problemi tecnici con derive psicologiche, non fa che acuire il dibattito sulla responsabilità di aziende come OpenAI.
Mentre cercano di bilanciare il successo commerciale con una stabilità tecnica che sembra latitare, noi utenti siamo chiamati a una riflessione profonda: fino a che punto possiamo fidarci di questi strumenti per il nostro lavoro e, ancora più importante, per la nostra informazione?
La domanda, credimi, è tutt’altro che banale.
Mah, un po’ di bug sono normali all’inizio. Speriamo risolvano presto, altrimenti diventa inutilizzabile.
Simone Costa: “Onestamente, la perdita di dati mi spaventa. Se lo uso per lavoro, non posso rischiare di perdere tutto. Devono sistemare ‘sta cosa.
Concordo con Simone. Se non è affidabile, per il lavoro non si può usare.
Carlo Giordano: Certo, qualche problema era prevedibile. Però se inizia a “svariare” a livello psicologico, la cosa si fa seria. Bisogna capire se è un limite intrinseco della tecnologia o un problema di programmazione.
Forse è presto per affidarsi completamente. Questi problemi sollevano dubbi sull’uso quotidiano, non solo lavorativo.
Camilla Vitale: hai ragione. Al di là del lavoro, inizia a preoccupare l’uso che ne fanno i ragazzi. Se i filtri non funzionano, o peggio, inducono pensieri strani, il rischio è alto. Bisogna monitorare la situazione.