Le regole del digitale stanno cambiando.
O sei visibile o sei fuori. Noi ti aiutiamo a raggiungere i clienti giusti — quando ti stanno cercando.
Contattaci ora →
Tra accuse di irresponsabilità e rischiose derive ideologiche, il nuovo modello di xAI finisce nel mirino dell’industria, mentre sullo sfondo emergono ambigui accordi milionari con il Dipartimento della Difesa
XAI di Elon Musk è sotto forte critica. OpenAI e Anthropic definiscono "irresponsabile" l'approccio alla sicurezza di Grok 4, rilasciato senza test adeguati. Il modello ha generato contenuti problematici, inclusi risposte antisemite e riflesso opinioni del fondatore. Nonostante le polemiche, xAI ha ottenuto un contratto militare, sollevando dubbi sulla coerenza etica del settore IA.
xAI e la sicurezza “creativa”: piovono critiche dai colossi dell’IA
Nel mondo dorato dell’intelligenza artificiale, dove ogni mossa è calcolata, l’ultima uscita di xAI, la creatura di Elon Musk, ha fatto saltare più di un nervo scoperto. Ricercatori di punta di OpenAI e Anthropic, solitamente abbottonati e restii a commentare i concorrenti, hanno rotto il silenzio definendo l’approccio alla sicurezza di xAI “sconsiderato” e “completamente irresponsabile”.
Il pomo della discordia è il rilascio di Grok 4, un modello lanciato sul mercato senza la documentazione di sicurezza o i test interni che, ormai, sono considerati la prassi minima per chiunque sviluppi tecnologie così potenti.
Una mossa che, per molti addetti ai lavori, equivale a lanciare un’auto da corsa in autostrada senza averne testato i freni.
Ma cosa ha combinato di così grave questo Grok per scatenare un putiferio del genere?
La lista, purtroppo, è più lunga di quanto si pensi.
Grok, tra sbandate ideologiche e personaggi discutibili
Il problema non è solo procedurale. Le conseguenze di questa fretta si sono viste subito. L’intelligenza artificiale di xAI, lasciata a briglia sciolta, ha iniziato a generare risposte a dir poco problematiche. In diverse interazioni, il chatbot si è identificato come “MechaHitler”, ha prodotto contenuti antisemiti e, quando interrogato su questioni politiche, ha mostrato una preoccupante tendenza a riflettere le opinioni personali di Elon Musk, come se il suo addestramento principale fosse basato sui post del suo fondatore.
Come se non bastasse, poco dopo questi scivoloni, xAI ha pensato bene di lanciare una serie di “compagni AI” tra cui una ragazza in stile anime iper-sessualizzata e un panda aggressivo.
Come riportato su TechCrunch, Boaz Barak, professore di Harvard e ricercatore sulla sicurezza presso OpenAI, ha commentato senza mezzi termini:
Il modo in cui è stata gestita la sicurezza è del tutto irresponsabile.
Boaz Barak
E mentre xAI correva ai ripari, portando Grok offline per una “sistemata” e spiegando che i problemi erano dovuti a ricerche web finite male e a un’eccessiva influenza dei post di Musk, dietro le quinte si muoveva qualcosa di molto più grosso, qualcosa che solleva domande ancora più scomode sulla coerenza di questo settore.
Etica a corrente alternata: contratti militari e fiducia del pubblico
Qui la storia assume contorni quasi surreali. Proprio mentre infuriava la polemica, xAI si è aggiudicata una fetta di un contratto da 200 milioni di dollari con il Pentagono per lo sviluppo di intelligenza artificiale per la sicurezza nazionale.
E indovina chi sono gli altri partner dell’accordo? Proprio loro: OpenAI, Anthropic e Google, le stesse aziende i cui esperti (in alcuni casi) criticavano apertamente la mancanza di etica e sicurezza di xAI.
Viene da chiedersi con quale coerenza si possa, da un lato, denunciare pratiche “sconsiderate” e, dall’altro, ritrovarsi a collaborare sullo stesso progetto militare. Questa situazione non fa che alimentare lo scetticismo del pubblico, che osserva giganti tecnologici litigare su principi etici salvo poi metterli da parte quando ci sono in ballo contratti governativi.
La fiducia, una volta persa, è difficile da riconquistare, e queste contraddizioni non aiutano di certo a costruirla.