Promesse di trasparenza e valutazioni “oggettive” per l’IA generativa: un nuovo strumento per domare i modelli di immagini e video o l’ennesima operazione di marketing di Google?
Google Cloud ha presentato il nuovo "Gen AI Evaluation Service" sulla piattaforma Vertex AI, dotato del modello Gecko, per valutare qualità, equità e sicurezza delle IA che producono immagini e video. Sebbene Google lo presenti come uno strumento essenziale nell'era dei modelli sofisticati, l'articolo solleva forti dubbi sulla reale utilità per gli utenti non enterprise e sulla trasparenza delle metriche di valutazione impiegate.
Google ci riprova con Vertex AI: ora valutiamo le IA che creano immagini e video. Ma servirà davvero?
Questa volta si tratta di un servizio, chiamato pomposamente “Gen AI Evaluation Service” con un modello dal nome esotico, “Gecko”, che dovrebbe aiutarci a capire se le intelligenze artificiali che sfornano immagini e video sono buone oppure no.
Stando a quanto raccontano sul loro blog ufficiale, questo Gecko dovrebbe valutare qualità, equità (fairness, che fa sempre figo) e sicurezza.
Tutto molto bello, eh?
Si inserisce nel grande calderone di Vertex AI, dove già nuotano i vari Gemini, quei modelli che dovrebbero capire tutto, dal testo alle immagini.
Insomma, Google continua a tirare fuori dal cilindro nomi e acronimi, ma la domanda sorge spontanea: tutta questa roba serve davvero a noi comuni mortali o è solo un altro modo per farci credere che hanno la soluzione in tasca? Perché, diciamocelo, di promesse ne abbiamo già sentite tante.
E se ti dicessi che dietro a queste scintillanti promesse di “valutazione oggettiva” si nasconde il solito fumo negli occhi, o magari qualcosa di ancora più… interessante?
Tra “valutazione rigorosa” e realtà: il solito specchietto per le allodole?
Ci raccontano che questo servizio risponde alla crescente domanda di test rigorosi, perché, si sa, i modelli generativi diventano sempre più “sofisticati”. Aashima Gupta, che in Google Cloud si occupa di strategie per la sanità, ci spiega con la solita flemma corporate che “l’analisi multimodale elabora diverse fonti di dati per una comprensione più completa”, come riportato da PR Newswire. Specialmente quando ci dicono che l’89% dei dati sanitari sono immagini.
E chi meglio di Google può dirci se sono sofisticati al punto giusto?
Suona bene, vero?
Peccato che sorga un dubbio:
chi controlla questi “controllori”?
Sempre Google?
E poi, questa storia della validazione da parte di terzi, come Moody’s e Thomson Reuters, per ridurre i rischi di disinformazione… sarà un tentativo genuino di mettere una pezza alla credibilità o solo una mossa di facciata? Per non parlare della “High Fidelity Mode”, che permette alle aziende di basare le valutazioni sui propri dati: ottima idea, se non fosse che probabilmente taglia fuori tutti quelli che non hanno montagne di dati proprietari da dare in pasto al sistema.
I piccoli, come al solito, restano a guardare?
Ma alla fine della fiera, tutta questa tecnologia luccicante, come funziona davvero sotto il cofano?
E, cosa ancora più importante, chi ci garantisce che i benchmark e le metriche usate per queste “valutazioni” non siano un tantino… accomodate per far bella figura?
I muscoli di Google: Gemini, ricerche ibride e la solita promessa di un futuro migliore (per loro)
Certo, Google ci tiene a farci sapere che la sua Vertex AI è piena di “avanzamenti tecnici”. Si parla di capacità di ricerca ibrida che mescolano la somiglianza vettoriale con la buona vecchia corrispondenza per parole chiave, e di “Dynamic Retrieval” per la validazione dei dati in tempo reale, come descritto da AI Base. E, naturalmente, non possono mancare i riferimenti alle performance strabilianti di Gemini 2.5 Pro, che, stando al blog di Google stessa (e quindi prendiamolo con le pinze), primeggerebbe nelle valutazioni matematiche e scientifiche.
Tutta questa evoluzione, che parte dal lancio sperimentale di Gemini 2.0 nel dicembre 2024, sembra voler colmare un vuoto lasciato forse dal precedente focus su strumenti come Vertex AI Matching Engine, che, diciamocelo, era più orientato alle raccomandazioni che a una valutazione completa dei media generativi.
Stanno davvero aprendo nuove frontiere o, più prosaicamente, cercano di non farsi lasciare indietro dalla concorrenza, tipo OpenAI?
La domanda è lecita.
Così, Vertex AI si posiziona, o meglio, Google la posiziona, come la piattaforma di riferimento per le aziende che vogliono un’intelligenza artificiale “responsabile”.
Responsabile per chi, però?
Per noi utenti finali, o per i loro profitti?
Staremo a vedere se questi nuovi giocattoli serviranno davvero a creare un’IA più affidabile e utile per tutti, o se sono solo l’ennesimo modo per legarci più stretti al loro ecosistema cloud.
E tu, a questa ennesima rivoluzione annunciata, ci credi davvero o ti viene da sorridere?