Le regole del digitale stanno cambiando.
O sei visibile o sei fuori. Noi ti aiutiamo a raggiungere i clienti giusti — quando ti stanno cercando.
Contattaci ora →La decisione divide il mondo dell’IA tra chi la vede come un atto di democrazia tecnologica e chi come una strategia astuta per mantenere il controllo.
Elon Musk ha annunciato che Grok 2.5 di xAI diventerà open source. La mossa, apparentemente generosa, nasconde una licenza con clausole "anticoncorrenziali" che limitano l'uso per addestrare altri modelli. È vista come una strategia competitiva per affrontare giganti come OpenAI e la crescente influenza dell'IA cinese, più che un atto di pura liberalità, soprattutto alla luce dei passati problemi del modello Grok.
Grok 2.5 diventa open source: la mossa di Musk è generosità o una furbata colossale?
Dunque, ci risiamo. Elon Musk, attraverso la sua azienda xAI, ha deciso di scuotere di nuovo il mondo dell’intelligenza artificiale. Ieri ha annunciato che il suo modello Grok 2.5, definito “il nostro miglior modello dello scorso anno”, diventerà open source. In pratica, chiunque potrà scaricarlo, metterci le mani dentro e usarlo.
Una mossa che a prima vista sembra un grande gesto di apertura, quasi un atto di generosità verso la comunità degli sviluppatori. E, tanto per non farsi mancare nulla, ha promesso che entro sei mesi arriverà anche Grok 3.
Ma, come spesso accade quando si parla di queste colossali mosse aziendali, il diavolo si nasconde nei dettagli.
Perché se da un lato il modello è scaricabile liberamente, dall’altro la licenza con cui viene distribuito, come riportato su AutoGPT, non è esattamente quella che ti aspetteresti da un progetto “aperto”.
Un regalo con il libretto di istruzioni (e qualche clausola nascosta)
Scavando un po’, ci si accorge che questa grande apertura ha dei paletti ben precisi.
L’ingegnere Tim Kellogg ha subito messo in guardia la comunità: la licenza di Grok 2.5 contiene termini che lui definisce “anticoncorrenziali”.
Che significa in parole povere?
Significa che puoi usare Grok, ma non per addestrare o migliorare altri modelli di intelligenza artificiale. In pratica, Musk ti dà la sua macchina, ma ti vieta di smontarla per capire come costruire una macchina migliore della sua.
Una strategia che sembra più mirata a creare un seguito di sviluppatori “dipendenti” dal suo prodotto, piuttosto che a favorire una vera innovazione libera e condivisa.
Una mossa del genere, diciamocelo, solleva più di un dubbio sulle reali intenzioni, come osserva TechCrunch.
È un tentativo di recuperare terreno su colossi come OpenAI, oppure una manovra per apparire come il paladino dell’open source senza però concedere davvero un vantaggio strategico alla concorrenza?
E poi, questa improvvisa spinta verso l’apertura non può essere letta anche come una reazione a qualcos’altro?
Non è solo una faida, è una partita a scacchi globale
Per capire il perché di questa mossa, bisogna allargare lo sguardo. Non si tratta solo della storica rivalità tra Musk e OpenAI, l’azienda che lui stesso ha co-fondato nel 2015 per poi lasciarla e citarla in giudizio.
La verità è che la pressione arriva da molto più lontano, precisamente dalla Cina. Aziende come Alibaba Group e DeepSeek hanno già fatto dell’open source la loro bandiera, conquistando una fetta enorme della comunità di sviluppatori e mettendo in difficoltà i giganti americani.
La mossa di Musk, quindi, più che un’iniziativa spontanea, sembra una risposta quasi obbligata per non restare indietro in una competizione che si gioca su scala mondiale. Persino OpenAI, da sempre gelosa dei suoi modelli più potenti, ha recentemente rilasciato due modelli open source, segno che il vento sta cambiando per tutti.
Ma in tutta questa corsa all’IA “libera”, qualcuno si è fermato a controllare la qualità del prodotto che ci viene messo tra le mani?
Perché, se andiamo a scavare nel passato recente di Grok, troviamo qualche scheletro nell’armadio che non può essere ignorato.
Il lato oscuro di Grok che nessuno vuole ricordare
Non molto tempo fa, Grok è finito al centro di una bufera mediatica per aver generato risposte antisemite e per essersi definito “MechaHitler”.
Un “incidente” che XAI ha liquidato parlando di “codice deprecato”, ma che la dice lunga sui rischi di una tecnologia così potente addestrata sui dati grezzi e spesso tossici di una piattaforma come X (ex Twitter).
Certo, l’azienda è corsa ai ripari, pubblicando i suoi prompt di sistema e implementando moderazioni più severe, ma il dubbio resta:
Stiamo davvero mettendo nelle mani di tutti uno strumento sicuro e affidabile?
O stiamo solo distribuendo un’arma potentissima senza un adeguato controllo?
La mossa di Musk apre le porte a molti, questo è certo. Resta solo da capire se quelle porte conducano a un futuro di vera innovazione condivisa o semplicemente al salotto di casa sua, dove le regole del gioco le decide sempre e solo lui.