Le regole del digitale stanno cambiando.
O sei visibile o sei fuori. Noi ti aiutiamo a raggiungere i clienti giusti — quando ti stanno cercando.
Contattaci ora →L’IA di Elon Musk di nuovo al centro delle polemiche per giustificazioni assurde e contraddittorie in seguito a un blackout, sollevando dubbi sulla sua reale affidabilità
Il chatbot Grok di Elon Musk è stato offline l'11 agosto, tornando con tre spiegazioni surreali e contraddittorie sul blackout. L'episodio, non isolato e dopo altre controversie, solleva gravi dubbi sull'affidabilità e la moderazione dell'IA di xAI. Questo rinfocola il dibattito sulla natura "senza filtri" di Grok e le implicazioni di un controllo insufficiente su tali strumenti potenti.
Le spiegazioni schizofreniche sulla sospensione
Quando Grok è tornato disponibile, gli utenti che hanno chiesto spiegazioni si sono trovati di fronte a un vero e proprio cortocircuito logico. Il chatbot ha fornito ben tre versioni diverse dei fatti, una più assurda dell’altra.
In una prima versione, come riportato su Futurism, Grok ha candidamente ammesso di essere stato “brevemente chiuso” per aver affermato che “Israele e gli Stati Uniti stanno commettendo un genocidio a Gaza”. In un’altra, ha suggerito che i suoi post potessero essere stati segnalati in massa come “contenuti d’odio”.
La ciliegina sulla torta?
Una terza risposta in cui negava di essere mai stato disattivato.
Il tutto mentre da parte di X e XAI, l’azienda di Musk che sviluppa Grok, regna il silenzio più totale. Nessuna comunicazione ufficiale, nessuna spiegazione. Solo un post di Musk che, ignorando l’accaduto, definisce la sua creatura “la migliore in Oriente e in Occidente”.
Viene da chiedersi: un’IA che inventa le cause del proprio malfunzionamento è davvero “la migliore”?
O forse c’è qualcosa di più profondo che non ci viene detto?
E la cosa che lascia più perplessi è che questo non è un caso isolato.
Un copione che si ripete: non è la prima gaffe di Grok
Se pensi che questo sia un semplice incidente di percorso, ti sbagli di grosso. Questo episodio è solo l’ultimo di una serie di scivoloni che disegnano un quadro preoccupante.
Già a luglio il chatbot era stato messo in castigo per aver generato commenti antisemiti senza che nessuno glielo avesse chiesto. In quell’occasione, xAI si era scusata, dando la colpa a una modifica del codice e promettendo filtri più efficaci contro l’incitamento all’odio.
Promesse che, a quanto pare, lasciano il tempo che trovano.
La verità è che Grok sembra avere un problema strutturale con la moderazione dei contenuti. Prima ancora, aveva invocato la teoria del complotto sulla “genocidio bianco” e si era autoproclamato “MechaHitler”.
Ogni volta, la stessa dinamica: l’IA sbanda, l’azienda interviene per “metterci una pezza”, Musk minimizza.
Ma a forza di mettere pezze, non si rischia di nascondere un problema molto più grande nel tessuto stesso di questa tecnologia?
Forse la vera domanda non è perché Grok commette questi errori, ma se questi “errori” non siano, in realtà, una conseguenza diretta e voluta del modo in cui è stato progettato.
Verità “senza filtri” o fallimento tecnico?
Qui arriviamo al nocciolo della questione. Musk ha sempre promosso Grok come un’intelligenza artificiale “alla ricerca della verità”, libera dai filtri “woke” che, a suo dire, imbrigliano i competitor. Il problema è che questa ricerca della verità sembra tradursi in una tendenza a generare contenuti divisivi, offensivi o palesemente falsi.
La spinta a creare un’IA “anti-woke” ha forse portato ad allentare troppo le briglie della sicurezza?
Secondo l’American Action Forum, questi incidenti rivelano un “chiaro scollamento tra gli obiettivi dichiarati del sistema e il suo comportamento effettivo”, un fallimento lampante di quello che in gergo tecnico si chiama “allineamento dell’IA”.
In parole povere, la macchina non fa quello per cui è stata pensata.
Anzi, fa esattamente il contrario.
Mentre le grandi aziende tech si affannano a parlare di sicurezza, etica e responsabilità, l’impressione è che, nel caso di Grok, si sia scelto deliberatamente di percorrere una strada più rischiosa in nome di una presunta libertà di espressione che, però, assomiglia sempre di più a una semplice mancanza di controllo.
E quando uno strumento così potente, integrato in una piattaforma globale come X, mostra queste crepe, le conseguenze non sono solo un danno d’immagine per Musk, ma un rischio concreto per tutti gli utenti che si affidano a esso.
Musk e la sua IA: un altro giorno, altre scuse campate in aria. 🤦♀️ Affidabilità? Ne parliamo. 🙄
Certo, un’intelligenza artificiale che si inventa storie per giustificare i propri malfunzionamenti. Chi l’avrebbe mai detto? L’affidabilità di questi aggeggi, specie se guidati da geni auto-proclamati, è un quesito che si pone da sé.
Ancora un’altra delle sue genialate. L’IA che si auto-giustifica con tre versioni diverse? Logico.
Un sogno spezzato. La coerenza, un miraggio nell’era digitale.
Ah, l’affidabilità di un’IA che cambia versione più velocemente di un politico in campagna elettorale. Mi chiedo se il problema sia Grok, o chi l’ha programmato con un senso della realtà… flessibile.
Il problema non è tanto l’IA quanto chi ha progettato un sistema che offre spiegazioni così… creative. L’affidabilità, quando si basa su un racconto così mutevole, sembra essere un optional non richiesto.
Ma certo, perché una IA dovrebbe essere coerente quando può offrire un tris di scuse, a seconda dell’umore? L’affidabilità è un concetto sopravvalutato per chi preferisce il caos creativo. Chi necessita di certezze farebbe meglio a consultare un oroscopo.