Google DeepMind mette ordine nel Far West dell’IA: un nuovo framework per misurare l’AGI

Anita Innocenti

Le regole del digitale stanno cambiando.

O sei visibile o sei fuori. Noi ti aiutiamo a raggiungere i clienti giusti — quando ti stanno cercando.

Contattaci ora →

Tra tentativi di controllo e ambizioni di chiarezza, DeepMind lancia un framework e una competizione per definire i parametri dell’Intelligenza Artificiale Generale

Di fronte al caos nella corsa all'AGI, Google DeepMind lancia un "manuale cognitivo" per standardizzare la misurazione delle IA basandosi su abilità umane. L'iniziativa, supportata da una competizione per creare nuovi test, solleva un dubbio: è un sincero sforzo per la ricerca o una mossa strategica per imporre il proprio controllo sulla narrazione del futuro tecnologico?

Google DeepMind prova a mettere ordine nel far west dell’intelligenza artificiale

Google DeepMind ha deciso di scendere in campo per provare a risolvere uno dei problemi più sentiti nel mondo dell’intelligenza artificiale: come misuriamo i progressi verso la cosiddetta AGI, l’Intelligenza Artificiale Generale?

Diciamocelo, fino a oggi ognuno ha detto la sua, tra annunci trionfali e benchmark che lasciano il tempo che trovano.

Ora, però, il laboratorio di ricerca di Google ha pubblicato un vero e proprio “manuale cognitivo”, un framework dettagliato pensato per valutare le IA mettendole a confronto diretto con le capacità umane, il tutto basato su decenni di studi di psicologia e neuroscienze, come riportato sul blog ufficiale di Google.

E per non fare tutto da soli, hanno lanciato anche una competizione da 200.000 dollari per spingere sviluppatori e ricercatori a creare i test mancanti.

Ma la vera domanda è: perché proprio adesso?

Un problema di misurazione… o di controllo?

Questa mossa non arriva per caso. Mentre colossi come OpenAI, Microsoft e Meta accelerano nella corsa all’AGI, nel settore regna una confusione totale su cosa sia effettivamente questa intelligenza generale e, soprattutto, su come misurarla.

È una corsa all’oro senza un traguardo definito.

Basti pensare al recente risultato di OpenAI, il cui sistema o3 ha superato per la prima volta la soglia dell’85% nel benchmark ARC-AGI, un punteggio considerato finora di riferimento per le performance umane. Questo episodio dimostra quanto velocemente le capacità stiano avanzando, ma evidenzia anche l’urgenza di avere metodi di valutazione standard e condivisi.

Viene da chiedersi se l’iniziativa di DeepMind sia un sincero tentativo di fare chiarezza per il bene della ricerca e della sicurezza, o piuttosto una mossa strategica per dettare le regole del gioco e imporre i propri standard in un campo dove, chi definisce la metrica, di fatto controlla la narrazione.

E la loro soluzione è tanto ambiziosa quanto, per certi versi, prevedibile: scomporre l’intelligenza.

Scomporre l’intelligenza e chiamare a raccolta la community

Invece di cercare un singolo numero per definire l’AGI, il team di DeepMind ha messo nero su bianco 10 abilità cognitive fondamentali che un sistema dovrebbe padroneggiare.

Si parla di percezione, generazione di testo e immagini, attenzione, memoria, fino ad arrivare a capacità più complesse come il ragionamento, la metacognizione (cioè la capacità di “pensare al proprio pensiero”), le funzioni esecutive per pianificare e la cognizione sociale, come descritto nel loro corposo documento di ricerca.

L’obiettivo non è dire “sì, questa è AGI”, ma creare dei “profili cognitivi” per mappare le performance di un’IA rispetto a quelle di un essere umano.

Ma qui arriva il colpo di scena: riconoscendo che mancano test affidabili, specialmente per le aree più astratte come l’apprendimento o la cognizione sociale, DeepMind ha deciso di lanciare la palla alla community.

Con il loro hackathon su Kaggle, chiedono di fatto al mondo di aiutarli a costruire i pezzi mancanti del loro puzzle.

Una mossa che da un lato appare collaborativa, dall’altro suona quasi come un’ammissione di non avere tutte le risposte.

Resta da vedere se questo approccio, un po’ top-down e un po’ crowdsourced, riuscirà davvero a definire il futuro della valutazione dell’AGI o se, semplicemente, aggiungerà un’altra voce a un coro già fin troppo affollato.

Anita Innocenti

Sono una copywriter appassionata di search marketing. Scrivo testi pensati per farsi trovare, ma soprattutto per farsi scegliere. Le parole sono il mio strumento per trasformare ricerche in risultati.

5 commenti su “Google DeepMind mette ordine nel Far West dell’IA: un nuovo framework per misurare l’AGI”

  1. Ci sta. Mettere ordine è un bel modo per dire “controllare”. Creano il format, ci danno la pagella. Tutto pulito. Il mio sbatti è un altro: mentre misuriamo il suo QI, qualcuno si preoccupa di testare la sua capacità di non farci estinguere?

  2. Proporre una metrica è un elegante modo per imporre una museruola, definendo i contorni dell’umano per meglio dominarlo. Una tassonomia del controllo.

  3. Vanessa De Rosa

    Google non disegna una mappa, costruisce una gabbia. Questo framework non è un metro di misura, è un guinzaglio per l’intero settore. L’ordine che cercano è solo il loro controllo totale. Stanno decidendo chi vince prima ancora che la partita inizi.

  4. Greta Luciani

    Mettere ordine è un’illusione. Google non vuole fare lo sceriffo, vuole il trono. Questo framework non è una mappa per tutti, è il recinto della loro proprietà. Stiamo applaudendo chi ci sta mettendo il guinzaglio, o ce ne rendiamo conto?

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Ricevi i migliori aggiornamenti di settore