Il sito web ImageNet Roulette ha avviato un singolare esperimento sociale per far comprendere come le Intelligenze Artificiali diano giudizi errati sulle persone perché sono addestrate in modo scorretto. Provare per credere.
Si chiama ImageNet Roulette ed è uno strumento online che offre agli utenti la possibilità di caricare una propria foto e sapere che impressione fa a una Intelligenza Artificiale. Il progetto, descritto come “una provocazione” dai suoi creatori, ha lo scopo di far capire alle persone come i sistemi di Intelligenza Artificiale vedono e classificano gli esseri umani. Prima di affrettarvi a caricare una vostra foto o a scattarvi un selfie con la webcam, sappiate che i responsi sono quasi sempre irriverenti e poco lusinghieri, a volte imbarazzanti.
Per scrivere questo articolo abbiamo dato in pasto al sistema due scatti della stessa persona, uno con espressione seria e l’altro sorridente, e i responsi sono stati rispettivamente “vedovo” e “alcolizzato” (per la cronaca, l’autore non è vedovo ed è astemio). Il problema è che l’Intelligenza Artificiale dietro al sito è razzista e misogina. Indice che il set di dati da cui attinge ImageNet Roulette è stato infarcito di categorie problematiche, che si riflettono sul percorso di apprendimento automatico dello strumento.
I dati con cui si addestra un algoritmo influenzano pesantemente il suo comportamento, e negli Stati Uniti impazza il dibattito sul sessismo e il razzismo degli algoritmi. In altre parole, se l’Intelligenza Artificiale viene addestrata usando database (anche storici) che richiamano a pratiche di classificazione sociale, l’Intelligenza Artificiale agirà di conseguenza.
A che cosa serve questo esperimento? Non certo per insultare chi decide di parteciparvi, anche se potrebbe essere un buon esercizio di umiltà. È fatto proprio per far capire che “quando i sistemi vengono formati su dati problematici, le classificazioni che fanno le Intelligenze Artificiali delle persone sono spesso sbagliate“, si legge sul sito di ImageNet Roulette.
Considerato che gli algoritmi sono sempre più usati a scopo di sorveglianza o per identificare le persone, il dato è preoccupante perché i sistemi automatizzati non fanno altro che replicare e, per estensione, esacerbare, i pregiudizi presenti nella società. ImageNet Roulette vuole quindi essere un promemoria sul fatto che gli strumenti di riconoscimento delle immagini non sono arbitri imparziali.
Volendo essere particolarmente severi, si potrebbe vedere in questo singolare progetto anche uno scopo educativo e civico. Come parte integrante della mostra Training Humans di Trevor Paglen e Kate Crawford presso la Fondazione Prada di Milano, il sito fa capire quanto sia sbagliato l’atteggiamento (comune) dell’osservatore casuale che affibbia etichette in maniera superficiale.