La notizia che centinaia di multinazionali americane selezionano il personale da assumere attraverso una “app” fa rabbrividire. Non sorprende, però, chi questo tema lo segue da tempo (e sa che è prassi ad esempio in Ikea e in Amazon) e ha semplicemente avuto modo di scorrazzare sul sito web dell’azienda produttrice di questa impressionante soluzione.

La rivelazione del Washington Post fa riferimento al “programmino” (si fa per dire) realizzato da HireVue che consente di valutare un candidato analizzando i movimenti facciali, la voce o la terminologia utilizzata durante la conversazione. L’attendibilità del metodo non è certificata sotto il profilo scientifico, ma il sistema risulta comodo per chi si trova a duellare con una platea sterminata di aspiranti a un numero limitato di posti di lavoro. La scrematura preliminare e l’individuazione degli idonei avverrebbe esclusivamente grazie a un procedimento guidato dall’intelligenza artificiale.

La prima riflessione riguarda la legittimità di un simile “percorso”, inducendo a dare un’occhiata alla disciplina vigente in materia di privacy. Leggendo le premesse del regolamento europeo Gdpr, viene istintivo soffermarsi sul considerando numero 71. Secondo tale principio l’interessato (ovvero la persona cui si riferiscono i dati oggetto di trattamento) “dovrebbe avere il diritto di non essere sottoposto a una decisione, che possa includere una misura che valuti aspetti personali che lo riguardano, che sia basata unicamente su un trattamento automatizzato e che produca effetti giuridici che lo riguardano o incida in modo analogo significativamente sulla sua persona”. La norma fa poi specifico riferimento al rifiuto automatico alle pratiche di assunzione elettronica senza interventi umani.

Il successivo considerando 75 dice che “rischi per i diritti e le libertà delle persone fisiche, aventi probabilità e gravità diverse, possono derivare da trattamenti di dati personali suscettibili di cagionare un danno fisico, materiale o immateriale”. Il testo normativo indica puntualmente l’ipotesi di “valutazione di aspetti personali, in particolare mediante l’analisi o la previsione di aspetti riguardanti il rendimento professionale, la situazione economica, la salute, le preferenze o gli interessi personali, l’affidabilità o il comportamento” sottolineando la necessità di garanzie e tutele per chi sembra destinato a esser macinato da un algoritmo.

Il Gdpr dice che l’adozione di certe metodologie dovrebbe essere preceduta da una “valutazione di impatto”; ma purtroppo tale vaglio è affidato a chi deve dar luogo a un così delicato e critico trattamento dei dati su cui “si fondano decisioni che hanno effetti giuridici o incidono in modo analogo significativamente su dette persone fisiche”. Mentre ci aspettiamo di vedere le osservazioni che in proposito vorrà manifestare l’Autorità Garante per la privacy, è curioso osservare quale sia stata la reazione fisiologica da parte dei privati cittadini e del mercato.

I primi si sono indignati, ma solo nella limitata misura dell’esserne venuti a conoscenza e del saperne davvero poco sulla brutale macchina che si cela dietro la procedura in questione. Le associazioni a difesa della riservatezza dei dati e dei basilari diritti civili hanno avviato le prime timide iniziative, azzoppati da una ridotta collaborazione dei mezzi di informazione che non hanno nessuna intenzione di far adirare le corporation cui devono gli introiti delle inserzioni pubblicitarie.

L’orizzonte commerciale invece ha conosciuto una nuova alba, foriera di prospettive redditizie: il nuovo business è quello della formazione. Non parliamo di percorsi educativi volti ad apprendere chissà quali conoscenze e competenze, ma di brevi moduli didattici di orientamento “teatrale”. È fin troppo evidente che il “colloquio” per le future assunzioni si giocherà sulle apparenze che vengono valutate dalla ormai famosa (o banalmente famigerata) “app”.

Occorre quindi imparare come affrontare il dialogo, pardon monologo, con il programma incaricato della selezione. Espressioni e smorfie da evitare, atteggiamenti o approcci già schedati come negativi, termini tabù e tanti altri dettagli costituiranno i comandamenti delle cose da non fare. Le “tavole delle leggi” del comportamento da tenere non sono certo una cosa insolita perché anche in precedenza alcuni accorgimenti erano d’obbligo.

Ma ora determinati particolari assumono un valore ponderale assoluto e quindi c’è chi ha sfornato “lezioncine” – disponibili anche online e alcune già dal 2010 – per addestrare chi deve sfidare l’intelligenza artificiale. Esiste persino la contro-app HireVue for candidates, scaricabile dagli store di Apple e di Google.

La vita si è trasformata in un videogame, dove non necessariamente vince il migliore. I vecchi esperti di “risorse umane” possono considerarsi le prime vittime di questa strage. Il loro bagaglio culturale e la loro esperienza (oggetto di progressiva raccolta, classificazione e interrelazione) sono finiti nelle basi di metaconoscenza cui attinge l’intelligenza artificiale. Ironia della sorte, tale “trasferimento” di know how ha decretato la sopravvenuta inutilità dell’apporto di chi prima era quello che decideva assunzioni e licenziamenti. Mala tempora currunt.

Community - Condividi gli articoli ed ottieni crediti
Articolo Precedente

Lavoro, la subordinazione può essere anche macchina-uomo. E la tutela va comunque garantita

next
Articolo Successivo

Ilva, Patuanelli: “Chiediamo rispetto accordo sindacale e ambientale, nuovo tavolo a novembre”

next