L'inchiesta appena pubblicata dal TIME svela i contratti tra OpenAI, titolare della famosa chatbot, e Sama, azienda di San Francisco che impiega lavoratori in Kenya, Uganda e India per etichettare dati per l'addestramento dell'IA. In particolare si è trattato di catalogare testi con descrizioni accurate di abusi sessuali, omicidi e torture. Per pochi dollari e subendo le conseguenze psicologiche
“L’allenamento di modelli di intelligenza artificiale richiede una grande quantità di dati per addestrare il modello. Questi dati vengono spesso raccolti da lavoratori che etichettano manualmente i dati, come immagini o testo. Tali lavoratori possono essere pagati a basso salario e non sempre godere di condizioni di lavoro adeguate. Inoltre, l’uso di tali dati può anche sollevare questioni sulla privacy e sull’utilizzo etico dei dati raccolti”. Lo “dice” ChatGPT della statunitense OpenAI, colosso dell’intelligenza artificiale noto proprio per il generatore di testi lanciato nel 2022 grazie al quale l’azienda sta raccogliendo decine di miliardi di investimenti. Alla chatbot abbiamo chiesto se “dietro l’intelligenza artificiale c’è anche lo sfruttamento di lavoratori?”. Già “intervistata” da ilfattoquotidiano.it, in questo caso l’IA offre una risposta che potrebbe essere quella di un lettore del Time, il periodico americano che ha appena pubblicato un articolo in cui svela il lavoro umano a basso costo e basse tutele necessario all’addestramento di Chat GPT. Perché se a stupirci è soprattutto ciò che è in grado di fare, non meno importante è quello che non deve fare. Per farglielo capire, come ha “detto” l’interessata, bisogna spiegarle cosa è lecito e cosa no. Nonostante le formidabili capacità, il predecessore GPT-3, “è stata una vendita difficile perché l’app era incline a commenti violenti, sessisti e razzisti”, scrive il giornalista Billy Perrigo sul Time. E siccome l’obiettivo dichiarato di OpenAI è offrire un prodotto sicuro e adatto all’uso quotidiano, qualcuno deve classificare i contenuti per fornire all’IA esempi di materiale “tossico” sul quale addestrarla. E questo qualcuno, rivela il Time, sono lavoratori kenioti in outsourcing pagati 1,32 dollari l’ora per leggere ed etichettare testi, compresi quelli che descrivono graficamente abusi sessuali su minori, bestialità, omicidi, suicidi, incesti, torture e atti di autolesionismo.
IA significa grande velocità di calcolo e big data. Per questo quando a stupirci erano i motori di ricerca, tra i vertici di Goole c’era chi ammetteva: “In realtà stiamo costruendo un’intelligenza artificiale”. Ma nel Web abbiamo riversato anche il peggio delle nostre capacità espressive e l’IA, come qualunque altro prodotto da vendere alle masse, deve rassicurare l’utenza, non spaventarla con uscite inopportune. Per evitarlo, come già fatto da altri colossi della Silicon Valley, anche OpenAI si è rivolta a Sama, un’azienda di San Francisco che impiega lavoratori in Kenya, Uganda e India per etichettare dati, spiega il Time che ha esaminato centinaia di pagine di documenti interni di Sama e OpenAI, comprese le buste paga dei lavoratori che a seconda dell’anzianità e delle prestazioni prevedono stipendi compresi tra 1,32 e 2 dollari l’ora netti. Miliardi in Occidente, pochi spiccioli in Africa. “Per tutto il suo fascino, l’IA si basa spesso su un lavoro umano nascosto nel Sud del mondo che può essere spesso dannoso e sfruttato”, scrive l’autore dell’inchiesta. L’azienda ha confermato l’outsourcing in Kenya e l’importanza dei lavoro svolto per riuscire a rimuovere i dati tossici dai dataset di addestramento. “OpenAI – si legge – non rivela i nomi degli outsourcer con cui collabora e non è chiaro se abbia lavorato con altre aziende di etichettatura dei dati oltre a Sama per questo progetto”.
I contratti firmati tra OpenAI e Sama alla fine del 2021 prevedevano l’etichettatura di descrizioni testuali di abusi sessuali, incitamento all’odio e violenza. Il Time ha raccolto le testimonianze di quattro lavoratori che hanno parlato di turni di nove ore di lettura, per 150 o più testi fino a mille parole ciascuno. Tutti hanno spiegato di essere rimasti mentalmente segnati. Sulla carta erano previste sedute anche individuali con “terapisti professionalmente preparati e autorizzati”. Fatto che i dipendenti contestano, riferendo tuttalpiù di sedute di gruppo, poco utili e non sempre concesse a beneficio della produttività. OpenAI, che avrebbe pagato a Sama 12,50 dollari l’ora per lavoratore, ha dichiarato che nell’accordo era previsto un limite all’esposizione a contenuti espliciti e che questi fossero gestiti da lavoratori specificamente formati. E che ad ogni modo “Sama è responsabile della gestione dei pagamenti e della salute mentale dei dipendenti”. Come racconta ancora l’inchiesta del Time, il rapporto tra le due aziende si è interrotto diversi mesi prima del termine naturale dei contratti. Oltre ai testi, infatti, anche le immagini vanno etichettate, e sempre per OpenAI – scrive Perrigo – Sama ha iniziato a catalogare immagini sessuali e violente, comprese quelle illegali negli Usa, per poi consegnarle al committente. L’inchiesta ricostruisce lo scaricabarile tra le due aziende sui contenuti illegali. OpenAI ha parlato di “errore di comunicazione”, Sama ha risolto i contratti e posto fine alla tortura psicologica alla quale erano stati sottoposti i lavoratori, poi spostati o licenziati.
Un problema di coscienza da parte di una società che si presenta come un’azienda etica e dice di aver aiutato più di 50 mila persone a uscire dalla povertà?. Secondo il Time si è trattato piuttosto dell’effetto di un’altra sua inchiesta del febbraio 2021 in cui è descritto come Sama impiegasse moderatori di contenuti per Facebook, il cui lavoro prevedeva la visione di immagini e video di esecuzioni, stupri e abusi su minori per appena 1,50 dollari l’ora. Attraverso l’analisi della comunicazione interna, i giornalisti del Time hanno dimostrato che dopo l’uscita dell’inchiesta i dirigenti di Sama si sono affannati per limitare le ricadute e a tre giorni dalla pubblicazione l’ad Wendy Gonzalez ha scritto ad alcuni dirigenti per annunciare che il lavoro su OpenAI sarebbe presto terminato. Nel 2023 l’azienda ha annunciato di voler chiudere tutti i lavori che hanno a che fare con dati sensibili. Ma la necessità di addestrare l’intelligenza artificiale rimane, ripulendola dalla parte di Internet che non serve e dunque da una parte di noi. Non una questione di coscienza, ma di marketing. Come dimostra il lavoro del Time, per nascondere all’IA la parte peggiore di noi ad oggi abbiamo sfruttato altri esseri umani. Niente di intelligente.