Le regole del digitale stanno cambiando.
O sei visibile o sei fuori. Noi ti aiutiamo a raggiungere i clienti giusti — quando ti stanno cercando.
Contattaci ora →
Un’operazione rischiosa che mette a rischio i dati sensibili dei lavoratori freelance, scaricando su di loro la responsabilità di proteggere segreti industriali e informazioni riservate.
OpenAI sta chiedendo ai suoi contractor di fornire documenti di lavoro reali per testare nuovi "AI agent". Questa mossa, pur essendo strategica per battere la concorrenza, espone i professionisti a enormi rischi legali, come la violazione di accordi di non divulgazione e l'appropriazione indebita di segreti commerciali, scaricando su di loro l'intera responsabilità della "pulizia" dei dati sensibili.
OpenAI e la sua fame di dati: i tuoi documenti di lavoro diventano cibo per l’IA
Diciamocelo chiaramente, la notizia ha del surreale.
OpenAI, in collaborazione con la società di training data Handshake AI, sta chiedendo ai suoi contractor esterni di caricare i propri lavori passati e presenti.
Non parliamo di riassunti o esempi creati per l’occasione, ma di veri e propri file: documenti Word, presentazioni in PowerPoint, PDF e persino repository di codice che hai prodotto per altri clienti o datori di lavoro.
L’obiettivo dichiarato?
Valutare le prestazioni dei loro nuovi “AI agent”, mettendoli a confronto con il lavoro di un essere umano in carne e ossa. In pratica, vogliono vedere se l’intelligenza artificiale è in grado di fare il tuo lavoro bene quanto te.
Una mossa che, a prima vista, potrebbe anche sembrare logica nella corsa allo sviluppo di IA sempre più capaci di automatizzare compiti d’ufficio.
Come riportato da Wired, l’azienda chiede esplicitamente di fornire “lavoro reale, svolto sul campo”, e non semplici campioni.
Ma il diavolo, come sempre, si nasconde nei dettagli.
E qui i dettagli sono parecchio spinosi.
Un campo minato legale: chi paga se qualcosa va storto?
Per rassicurare tutti, OpenAI fornisce uno strumento chiamato “Superstar Scrubbing” basato su ChatGPT, che dovrebbe aiutare i contractor a rimuovere informazioni sensibili, proprietarie o personali prima di caricare i file.
Una bella trovata, vero?
Peccato che l’onere della prova, e quindi tutta la responsabilità , ricada interamente sulle spalle dei singoli professionisti. E qui la faccenda si complica, e non poco.
L’avvocato Evan Brown, esperto di proprietà intellettuale, ha messo in guardia sul fatto che qualsiasi laboratorio di IA che adotta questo metodo si sta “esponendo a un rischio enorme”.
Pensa a quel report strategico che hai preparato per un cliente o a quel pezzo di codice che contiene un segreto industriale. Se qualcosa sfugge alla “pulizia”, sia il contractor che OpenAI potrebbero trovarsi invischiati in cause legali per appropriazione indebita di segreti commerciali.
E non è tutto: quasi tutti i contratti di lavoro o di consulenza vietano esplicitamente di condividere materiale interno, anche se parzialmente oscurato. Questo significa che un contractor potrebbe violare un accordo di non divulgazione (NDA) semplicemente partecipando al programma.
In pratica, rischia di rivelarsi “consent laundering”, una pratica che trasforma un permesso limitato (fare un lavoro) in un’autorizzazione molto più ampia (addestrare un’IA).
Indovina un po’ su chi ricadrebbe la colpa in caso di problemi?
La corsa agli “AI agent”: una scorciatoia che potrebbe costare cara
La vera domanda è: perché un’azienda come OpenAI si sta imbarcando in un’operazione così azzardata?
La risposta, come spesso accade, sta nella competizione sfrenata. La corsa a creare agenti IA in grado di automatizzare il lavoro d’ufficio è la nuova frontiera e competitor come Anthropic e Google non stanno certo a guardare. Per vincere, servono dati di altissima qualità , dati reali che riflettano le complessità e le sfumature del lavoro quotidiano.
I dati sintetici, quelli creati ad hoc, evidentemente non bastano più.
C’è bisogno del “sangue fresco” dei nostri documenti per rendere queste macchine più performanti.
Il punto è che questa scorciatoia strategica scarica un rischio enorme sull’anello più debole della catena: il lavoratore freelance, spesso precario e con un potere contrattuale quasi nullo. In questa gara, OpenAI e i suoi competitor sembrano disposti a far correre i rischi maggiori a chi ha meno strumenti per difendersi, pur di ottenere un vantaggio competitivo.
