Pregiudizi integrati nel sistema di intelligenza artificiale utilizzato dal governo inglese per individuare abusi nel sistema di sussidi pubblici.
L’esclusiva è del Guardian, che ha ricevuto un rapporto interno del ministero del Lavoro. Secondo il documento, ottenuto grazie a una richiesta di accesso agli atti, l’intelligenza artificiale, in teoria esente da preconcetti, predilige specifici gruppi razziali quando raccomanda indagini per presunti abusi del sistemi di welfare.
L‘analisi interna di imparzialità nella distribuzione delle verifiche ha rivelato ‘un risultato statisticamente rilevante’ a sfavore di richiedenti, sulla base della loro nazionalità, stato civile, disabilità ed età. Questo malgrado le rassicurazioni, reiterate dal ministero solo la scorsa estate, che AI “non sollevi preoccupazioni urgenti per discriminazione, trattamento ingiusto o impatto negativo sui clienti”.
Il rapporto non ufficiale smentirebbe questa ricostruzione. Del resto, il governo è sotto enorme pressione: secondo gli ultimi dati disponibili, il sistema di sussidi pubblici è vittima di frode per 8 miliardi ogni anno. A beneficiare di varie forme di sussidio, nel Regno Unito, sono quasi 23 milioni di persone, circa un terzo della popolazione. Questo numero include minori e pensionati: circa 9.6 milioni sono le persone in età lavorativa, 700mila i minori con disabilità. Una massa di richiedenti, alcune dei quali con casi complessi. Anche se la decisione finale è sempre di un funzionario in carne e ossa, negli ultimi anni i governi che si sono succeduti hanno integrato nel processo decisionali alcuni automatismi, in ottica di efficienza.
L’esistenza di ‘pregiudizi’ nei processi governati dall’intelligenza artificiale è nota e documentata, ma nel caso dei benefits, lo ricordano gli attivisti del Public Law Project, la valutazione del rischio è insufficiente. Per esempio, l’analisi di imparzialità non include categorie come razza, sesso, orientamento sessuale, religione, gravidanza, riassegnazione di genere: gruppi già particolarmente vulnerabili a pratiche discriminatorie che rischiano di essere esclusi dai sussidi e finire nella macchina infernale dei ricorsi.
Ci sono poi l’aspetto economico e di sorveglianza: il governo ricorre con sempre maggiore frequenza agli strumenti di intelligenza artificiale, ma non fa abbastanza per garantire la trasparenza dell’algoritmo e dell’utilizzo finale dei dati, come ha ammesso lo stesso Peter Kyle, il ministro per la scienza e la tecnologia,
Il mese scorso, ricorda il Guardian, la polizia ha avviato una gara per un contratto da 20 milioni per un software di riconoscimento facciale, ma è impossibile avere rassicurazioni contro il rischio di “sorveglianza biometrica di massa”.