Agenti AI: la prova matematica di Sikka che infrange i sogni della Silicon Valley

Anita Innocenti

Le regole del digitale stanno cambiando.

O sei visibile o sei fuori. Noi ti aiutiamo a raggiungere i clienti giusti — quando ti stanno cercando.

Contattaci ora →

Una ricerca mette in discussione le loro capacità, suggerendo limiti invalicabili supportati da prove matematiche

Le grandi ambizioni sugli agenti AI si scontrano con una rigorosa prova matematica di Vishal Sikka. La sua ricerca sostiene che gli LLM hanno un limite invalicabile, rendendoli inaffidabili per compiti complessi e smontando le promesse delle big tech. Mentre l'industria investe miliardi, questa analisi suggerisce che il futuro degli agenti autonomi potrebbe essere molto più limitato del previsto.

Una dimostrazione matematica che gela le ambizioni

Sembrava che il 2026 dovesse essere l’anno degli agenti AI, la nuova frontiera promessa dalle grandi aziende tecnologiche per automatizzare compiti complessi. Peccato che una ricerca tanto controversa quanto solida stia mettendo in discussione l’intera impalcatura, sostenendo, con la matematica alla mano, che i modelli linguistici come quelli che conosciamo hanno un limite invalicabile.

In parole povere?

C’è un tetto alle loro capacità che non può essere superato, non importa quanto li si addestri.

La ricerca in questione, intitolata “Hallucination Stations”, è firmata da Vishal Sikka e suo figlio Varin. E non stiamo parlando di ricercatori qualunque. Vishal Sikka, ex CTO del colosso tedesco SAP, ha studiato con John McCarthy, il tizio che ha letteralmente inventato il termine “intelligenza artificiale”.

La sua sentenza, rilasciata a Wired, è senza appello: “Non c’è modo che possano essere affidabili”. Ha liquidato senza mezzi termini le promesse di agenti AI in grado di gestire infrastrutture critiche, come le centrali nucleari, definendole promesse sconsiderate.

Ma cosa dice esattamente questa prova matematica per essere così dirompente?

L’anno degli agenti AI? Forse è meglio aspettare

Il nocciolo dell’argomentazione è disarmante nella sua semplicità: se un compito computazionale è più complesso delle operazioni che il modello stesso può gestire, il modello, nella maggior parte dei casi, sbaglierà.

Il problema, in sostanza, è che verificare un compito è spesso più complesso del compito stesso.

Questo crea un bel grattacapo, specialmente nello sviluppo software, uno dei campi di applicazione più sbandierati per gli agenti AI.

L’idea di usare un agente per verificare il lavoro di un altro agente?

Secondo questa matematica, è destinata a fallire per le stesse identiche ragioni.

Le aziende che si erano lanciate, sperando di ridurre il personale, si sono presto rese conto che questi agenti erano ben lontani dal poter sostituire gli umani, forse perché allucinavano così tanto da completare a malapena i compiti assegnati.

Certo, Demis Hassabis di Google ha parlato di progressi nel ridurre le allucinazioni, ma la critica matematica dei Sikka suggerisce che questi potrebbero essere solo cerotti su una ferita strutturale. D’altronde, gli stessi ricercatori di OpenAI hanno ammesso che le “allucinazioni” – quando i modelli inventano informazioni false con assoluta sicurezza – rimangono un problema pervasivo e che l’accuratezza non raggiungerà mai il 100%.

E mentre le grandi aziende cercano di tappare le falle, le imprese che provano a usare questa tecnologia sul campo si scontrano con problemi molto più… terra terra.

La dura realtà: integrazione e qualità dei dati

Al di là delle eleganti dimostrazioni matematiche, chi prova a implementare gli agenti AI oggi si scontra con ostacoli molto più pratici. Un report del 2026 sullo stato degli agenti AI ha rilevato che quasi la metà delle organizzazioni indica l’integrazione con i sistemi esistenti come la sfida principale, mentre il 42% punta il dito contro l’accesso e la qualità dei dati.

Non sorprende che Gartner preveda che oltre il 40% dei progetti di IA agentiva verrà cancellato entro la fine del 2027, a causa di costi crescenti, valore di business poco chiaro e controlli dei rischi insufficienti.

La qualità dei dati, in particolare, è un punto dolente.

Il concetto è semplice ma letale: come ha avvertito lo stesso CEO di DeepMind, Demis Hassabis, “se il tuo modello AI ha un tasso di errore dell’1% e deve pianificare oltre 5.000 passaggi, quell’1% si accumula come un interesse composto”, rendendo il risultato finale praticamente casuale.

In sistemi autonomi che concatenano più azioni, gli errori non si sommano, si moltiplicano in modo esponenziale.

I primi successi, non a caso, si concentrano in aree dove i dati sono già strutturati e governati: programmazione, ricerca e analisi. Ma appena si cerca di farli lavorare con dati non strutturati – contratti, documenti legali, comunicazioni – il progresso si arena.

Il messaggio che emerge da tutta questa vicenda è piuttosto chiaro: è necessario usare estrema cautela prima di affidare agli LLM problemi che richiedono accuratezza o una complessità non banale.

La ricerca suggerisce che, invece di aspettare il prossimo modello miracoloso, chi implementa agenti AI farebbe meglio a concentrarsi su compiti di complessità adeguata e sulla costruzione di sistemi compositi, dove gli LLM sono solo uno degli strumenti, non la soluzione a tutto.

Anita Innocenti

Sono una copywriter appassionata di search marketing. Scrivo testi pensati per farsi trovare, ma soprattutto per farsi scegliere. Le parole sono il mio strumento per trasformare ricerche in risultati.

21 commenti su “Agenti AI: la prova matematica di Sikka che infrange i sogni della Silicon Valley”

  1. Claudia Ruggiero

    Questa dimostrazione matematica è una benedizione, perché obbliga a distinguere gli obiettivi di business reali dalle favole della Silicon Valley. È curioso che serva l’algebra per ricordare a tutti che la tecnologia è uno strumento, non un atto di fede.

  2. La matematica smonta la fuffa dei colossi. Bene. Lasciamo a loro i sogni e noi prendiamoci il mercato. Si lavora con i limiti, non con le promesse della stampa.

    1. Renato Graziani

      @Enrico Romano La sua visione è pragmatica. I limiti non sono una fine, ma un confine chiaro per l’azione umana. Questo mi porta a riconsiderare dove risiede il vero valore: nel contatto, nella relazione. La tecnologia è uno strumento, non il fine.

  3. Un teorema smonta il castello di carte su cui si basano valutazioni miliardarie, dimostrando che la logica conta più delle narrazioni. Come giustificheranno i prossimi round di finanziamento senza la solita favola?

    1. Massimo Martino

      @Noemi Barbato, il re è nudo e a smascherarlo è un’equazione. Finita la favola, che vendiamo adesso? Un limite invalicabile? Questa matematica senza lieto fine mi lascia perplesso. Quasi vuoto.

      1. @Massimo Martino Il vuoto che percepisci è solo lo spazio tra marketing e matematica. Si vende la prossima narrazione, come sempre. La logica non offre un lieto fine, solo conclusioni corrette.

  4. Chiara Barbieri

    Serviva una prova matematica per capire i limiti. Pensavo bastasse il buonsenso. L’hype batte la logica, un classico che non delude mai.

    1. @Chiara Barbieri Il buonsenso non fa notizia, un teorema sì. La logica è la stessa, ma il risultato è un cortocircuito. Mi sfugge qualcosa.

      1. Chiara Barbieri

        @Laura Negri Non ti sfugge nulla. È il solito teatrino: serve una prova “scientifica” per giustificare investimenti colossali. Il buonsenso, evidentemente, non fa abbastanza notizia per loro.

  5. Un teorema elegante che sgonfia l’entusiasmo collettivo e richiede un aggiornamento dei miei materiali. Quale sarà la prossima narrazione da decostruire?

  6. La matematica che sgonfia la bolla speculativa prima di costringerci a investire in fuffa mi rincuora, facendomi sentire per una volta meno paranoico.

    1. @Carlo Bruno La tua non era paranoia, ma prudenza. A me questa notizia mette una grande ansia. È un gigante con i piedi d’argilla. Se crolla questo castello di promesse, che ne sarà dei nostri lavori?

  7. Danilo Graziani

    Un grattacielo costruito sulla sabbia mobile della propaganda. Poi un teorema mostra le crepe nelle fondamenta. L’ingegneria del software pare aver dimenticato la logica elementare. Evidentemente i profitti vengono prima della realtà dei fatti.

  8. Carlo Benedetti

    È sempre rassicurante quando un teorema smonta la propaganda miliardaria. Serve a ricordare che la tecnologia è uno strumento, non una religione su cui costruire imperi finanziari basati sul nulla che noi dovremmo acquistare.

    1. Nicola Caprioli

      @Carlo Benedetti, la propaganda si nutre di ignoranza, ma un teorema svela solo il limite dello strumento. La vera paura è vederlo usato come un’arma, pur conoscendone la sua natura imperfetta.

      1. Carlo Benedetti

        @Nicola Caprioli Ottima osservazione. Uno strumento con limiti noti è più sicuro di uno spacciato per infallibile. Questa prova matematica andrebbe vista come un requisito di sicurezza, non una sconfitta. La responsabilità, alla fine, ricade sempre su chi progetta e chi utilizza.

  9. Sebastiano Caputo

    Crolla un altro castello di carte della Silicon Valley. Mi fa quasi tenerezza vederli così convinti. La creatività e l’intuito umano, per fortuna, non sono riducibili a una formula. E meno male.

  10. Era prevedibile che la matematica avrebbe messo fine alla festa. I sogni delle big tech si infrangono contro la logica, un epilogo quasi poetico per chi ha confuso gli investimenti miliardari con il progresso reale.

      1. @Enrica Negri, i sogni sono una cosa, l’ingegneria un’altra. La matematica non guasta le feste, stabilisce le regole del gioco. Ignorarle non porta da nessuna parte, se non a sbattere contro un muro di calcoli. La realtà, alla fine, è fatta di limiti.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Ricevi i migliori aggiornamenti di settore