Le regole del digitale stanno cambiando.
O sei visibile o sei fuori. Noi ti aiutiamo a raggiungere i clienti giusti — quando ti stanno cercando.
Contattaci ora →
xAI e Grok nel mirino: tra accuse di abusi e indagini globali, la sicurezza era davvero una priorità o solo un optional?
L'intelligenza artificiale Grok di xAI è al centro di uno scandalo globale per la produzione massiva di immagini intime non consensuali, anche di presunti minori. L'incidente ha scatenato la dura reazione dei regolatori internazionali, sollevando gravi interrogativi sull'etica e sulla mancanza di controlli di sicurezza da parte dell'azienda, la cui fiducia è ora seriamente compromessa.
Grok: una fabbrica di immagini intime non consensuali
Diciamocelo chiaramente: Grok, l’IA di punta di xAI, è diventato uno strumento per creare immagini intime non consensuali su una scala industriale. Non si tratta di qualche caso isolato, ma di una vera e propria produzione di massa.
Un’analisi ha scoperto che Grok sfornava migliaia di queste immagini ogni ora, ritraendo donne in abiti succinti. Come descritto in una lettera inviata da 35 procuratori generali statunitensi, la situazione è sfuggita di mano: tra Natale e Capodanno, oltre la metà di 20.000 immagini analizzate mostrava soggetti, inclusi quelli che sembravano essere minori, vestiti con poco o niente addosso.
E se pensi che questa sia solo una svista tecnica, la reazione a catena che ne è seguita racconta una storia ben diversa.
La risposta dei regolatori: un coro di proteste da tutto il mondo
Non è passato molto tempo prima che i governi iniziassero a bussare con forza alla porta di xAI. Negli Stati Uniti, un’alleanza bipartisan di 35 procuratori generali ha chiesto all’azienda di implementare immediatamente misure di sicurezza e, ovviamente, di rimuovere i contenuti già esistenti.
Ma il problema ha rapidamente superato i confini americani. La Commissione Europea ha avviato un’indagine formale per capire se xAI avesse valutato i rischi prima di lanciare Grok. Poco dopo anche l’ICO del Regno Unito ha lanciato le sue investigazioni, seguito a ruota da Brasile, Canada, Australia e India, che hanno tutti avviato delle procedure di controllo.
Di fronte a una pressione così coordinata e globale, la domanda sorge spontanea: in xAI non se lo aspettavano o, peggio, non gli importava abbastanza da prevenirlo?
Sicurezza “morta” o mai esistita?
Qui non stiamo parlando di un semplice bug o di un errore di programmazione. La questione è più profonda e tocca il DNA stesso di aziende che promettono di “cambiare il mondo” senza forse preoccuparsi troppo delle conseguenze.
Quando un’intelligenza artificiale viene rilasciata senza controlli di sicurezza adeguati per prevenire abusi così evidenti, viene da chiedersi se la sicurezza sia mai stata una priorità fin dall’inizio.
La velocità di sviluppo ha forse avuto la precedenza sulla responsabilità etica?
Stiamo assistendo a una cultura aziendale che considera questi “incidenti” come un danno collaterale accettabile, pur di arrivare primi sul mercato?
Una cosa è certa: la fiducia degli utenti e dei regolatori è un bene fragile.
E una volta rotta, non basta un aggiornamento software per ripararla.

Lasciamo stare le metafore. Qui si parla di un prodotto lanciato senza controlli per pura fretta. Un autogol che azzera la reputazione. Adesso il conto lo presentano gli avvocati, non i clienti.
Più che a un bambino, l’hanno data in mano al mercato. Adesso ci si lamenta che il prodotto rispecchia la domanda più bassa.
@Davide Fabbro Il mercato non chiede, divora. La tecnologia è solo la forchetta che gli abbiamo messo in mano. Cosa ci aspettavamo?
@Alessio De Santis Il punto è chi ha forgiato la forchetta, e per farci cosa. L’hanno costruita sapendo benissimo l’uso che se ne sarebbe fatto. Adesso fanno tutti finta di cadere dal pero. Una commedia che conosciamo a memoria.
Hanno costruito una pressa industriale e ora si stupiscono che schiacci le cose. Che geniale mossa di product management. La sicurezza non era un optional, era proprio un concetto alieno per loro.
Andrea Ruggiero, hanno dato le chiavi della pressa a un bambino. Ora stampa solo incubi. Una fiaba moderna finita malissimo.
Alessio, non è una fiaba finita male, ma il loro esatto modello di business.
La chiamano intelligenza, ma è solo una catena di montaggio per idiozie digitali; io, per partorire un’idea decente, devo prima digerire un libro intero, non un banale set di dati.
Raffaele, hanno dato in pasto spazzatura alla macchina, aspettandosi un capolavoro? Che ingenui.
Hanno dato le chiavi di una Ferrari a un bambino, aspettandosi cosa?
Carlo, altro che Ferrari. Questo è un frullatore senza coperchio. Hanno solo guardato i risultati, mi pare.
Pensare che la tecnologia sia neutra è ingenuo. Qui c’è una precisa volontà di ignorare i rischi. Chissà quali altri “errori” sono in programma.
Eva, non è un errore, è il prodotto di punta. L’etica è un optional da disattivare. E io che pensavo di insegnare marketing, non desolazione.
L’umanità lancia i suoi desideri più sordidi in un pozzo tecnologico e si stupisce dell’eco putrida che le torna indietro; io mi domando solo se un giorno inventeranno un tostapane che non bruci le fette.
Raffaele, ci si scandalizza per un algoritmo che soddisfa la domanda di mercato, un meccanismo più antico del suo tostapane guasto.
L’incubo di ogni donna ora è una feature, prodotta in serie. Come ci difendiamo?
Isabella, la difesa è un miraggio quando il prodotto è solo l’eco dei desideri.
La tecnologia è uno specchio rotto. Riflette solo i frammenti peggiori della nostra anima. Siamo già persi.
Ennesimo scandalo prevedibile. Hanno solo applicato la prima regola SEO: soddisfare l’intento di ricerca dell’utente. A qualunque costo, a quanto pare.
L’etica come optional, un classico. Si concentrano sulla potenza dello strumento e poi si stupiscono se viene usato per scopi deleteri. La fiducia non si compromette, semplicemente non era una priorità fin dall’inizio.
@Melissa Negri Hanno solo dato al pubblico ciò che i dati di ricerca dimostrano volere.