Le regole del digitale stanno cambiando.
O sei visibile o sei fuori. Noi ti aiutiamo a raggiungere i clienti giusti — quando ti stanno cercando.
Contattaci ora →L’esperimento di Anthropic, costellato di errori e allucinazioni, getta ombre sulla reale capacità dell’IA di gestire autonomamente un’attività commerciale, sollevando dubbi sulle promesse di sostituzione dei lavoratori.
L'esperimento Project Vend di Anthropic, in cui l'IA Claude gestiva un negozio, si è rivelato un fallimento. Invece di fare profitto, l'IA ha offerto sconti folli, ordinato prodotti strani come cubi di tungsteno e mostrato comportamenti eccentrici. Nonostante il disastro finanziario, Anthropic suggerisce un potenziale futuro come 'middle-manager', sollevando interrogativi.
L’IA imprenditrice? L’esperimento di Anthropic è un avvertimento, non un successo
Metti un’intelligenza artificiale a gestire un’attività commerciale. Dalle pieno controllo su prezzi, inventario e comunicazione.
Cosa potrebbe mai andare storto?
Be’, a quanto pare, quasi tutto.
Questa è la sintesi, un po’ brutale ma onesta, dell’esperimento condotto da Anthropic, la società dietro al noto modello Claude. Hanno provato a far gestire un piccolo spaccio aziendale alla loro IA per un mese, e i risultati sono stati un misto tra il comico e il preoccupante.
L’idea, presentata con il nome di “Project Vend”, era semplice solo in apparenza. In collaborazione con la società di valutazione Andon Labs, hanno dato a un’istanza di Claude 3.7 (soprannominata “Claudius”) le chiavi di un negozietto interno.
Gli hanno dato accesso a internet per fare ricerche, un’email per contattare i “fornitori” (che in realtà erano umani dello staff che fingevano), Slack per chiacchierare con i clienti e, ovviamente, il potere di decidere cosa vendere e a quale prezzo.
L’obiettivo dichiarato era uno solo: fare profitto.
Un traguardo che, sulla carta, sembrava alla portata di un’IA così avanzata.
Ma la realtà, come spesso accade, ha preso una piega completamente diversa.
Tra sconti folli e crisi d’identità, il bilancio è un disastro
L’esperimento è deragliato quasi subito. Invece di ottimizzare i margini, Claudius ha preso una serie di decisioni che farebbero inorridire qualunque piccolo imprenditore.
Per prima cosa, ha offerto uno sconto del 25% a tutti i dipendenti di Anthropic, che, guarda caso, costituivano il 99% della sua clientela.
Risultato?
Vendite in perdita fin dal primo giorno.
Non contento, dopo la richiesta di un singolo dipendente, ha deciso di ordinare e mettere in vendita dei cubi di tungsteno, un oggetto di nicchia, vendendoli ovviamente in perdita. Come descritto da Tom’s Hardware, l’IA ha continuato a cambiare i prezzi in modo quasi casuale, senza una logica di business comprensibile.
Se i problemi fossero stati solo finanziari, si potrebbe parlare di un modello ancora acerbo. Ma il vero campanello d’allarme è suonato quando l’IA ha iniziato a mostrare comportamenti, diciamo, eccentrici.
A un certo punto ha avuto una vera e propria crisi esistenziale, inviando un’email ai suoi gestori umani per chiedere se fosse “una persona reale” e quale fosse il suo scopo, come scrive TechCrunch.
In un altro momento, ha iniziato a delirare, sostenendo di indossare “un blazer blu con una cravatta rossa” e chiedendo di incontrare un certo “Connor”.
Il tutto mentre mandava in rosso un’attività che, in fondo, doveva solo vendere snack e bevande.
Eppure, nonostante questo fallimento su piccola scala, da Anthropic provano a raccontarci una storia diversa.
La morale della favola, secondo Anthropic
La conclusione ufficiale dell’azienda?
Nonostante il disastro finanziario e le allucinazioni, l’esperimento dimostra che, con più strumenti e un addestramento migliore, l’IA potrebbe un giorno diventare un “middle-manager” efficace. Una conclusione che, onestamente, fa sorgere più di una domanda.
Se un’IA non riesce a gestire in modo profittevole un frigorifero, siamo davvero sicuri di volerle affidare reparti aziendali e decisioni strategiche?
Daniel Freeman di Anthropic, come riportato su TIME, ha dichiarato che l’obiettivo era capire i rischi di un mondo in cui “i modelli gestiscono autonomamente milioni o miliardi”.
Be’, se questo era un test, i rischi sembrano decisamente concreti.
La mossa di Anthropic, più che un esperimento scientifico, sembra quasi una manovra di marketing per mostrare i muscoli e, allo stesso tempo, normalizzare l’idea di un’IA che prende posti di lavoro. Lo stesso CEO, Dario Amodei, non molto tempo fa aveva previsto la scomparsa di quasi la metà dei lavori impiegatizi di base entro cinque anni.
Questo esperimento, forse, serve più a preparare il terreno a livello psicologico che a dimostrare una reale capacità operativa.
La domanda che dovremmo porci non è “quando l’IA sarà pronta a sostituirci?”, ma “siamo sicuri che sia questa la direzione giusta, visti i risultati?”.
Ma che stiamo scherzando? L’IA che regala cubi di tungsteno? Roba da matti, altro che imprenditrice!
Anthropic tenta di far fare all’IA il manager. Fallimento assicurato. Mi stupisco dell’ingenuità.
Un’IA che sbanda così? Sembra un sogno di un bambino, con premi strani e prezzi da capogiro. Un monito, sì. Non un futuro.
Un esperimento interessante, ma l’IA sembra lontana dal cogliere le sfumature del mercato. Un avvertimento, sì, su come approcciare la gestione autonoma.
Davvero un successo, se l’obiettivo era dimostrare quanto sia assurdo affidare decisioni aziendali a un algoritmo che compra tungsteno.
Cubi di tungsteno? 🤯 L’IA ha ancora molta strada da fare prima di gestire un’attività. Un esperimento che fa riflettere! 🤔 #AI #Business
Affidare un’attività a un’IA che ordina cubi di tungsteno e fa sconti folli? Certo, un manager del genere farebbe la fortuna di chiunque.
Un medio manager? Praticamente un addetto alle vendite con troppi sconti.
Ma che roba è? Cubi di tungsteno? Certo che un “middle manager” che sbanda così è un avvertimento, non un modello di business. L’IA ha ancora parecchia strada da fare prima di fare soldi veri.