Il nuovo rapporto di Amnesty International, "Atrocità social: Meta e il diritto dei rohingya a una riparazione", è basato in parte sui Facebook Paper, i documenti interni resi pubblici dalla whistleblower Frances Haugen. Denuncia come gli algoritmi di Facebook abbiano contribuito ai crimini perpetrati nel 2017 dalle forze armate del Myanmar contro la minoranza dei rohingya. Secondo il report, la piattaforma di cui è proprietaria l’azienda Meta, ha concorso alla campagna di pulizia etnica che causò migliaia di uccisioni, torture e stupri e diede luogo a uno sfollamento di massa di circa 700.000 persone, prevalentemente musulmani, residenti nello stato settentrionale di Rakhine
Quando nel 2021 l’informatica francese Frances Haugen scelse di diventare una whistleblower, rivelando decine di migliaia di documenti interni di Facebook alla Securities and Exchange Commission e al Wall Street Journal, il mondo capì per la prima volta il potere di influenza degli algoritmi sui comportamenti sociali. Con il nuovo rapporto di Amnesty International, Atrocità social: Meta e il diritto dei rohingya a una riparazione, l’impatto delle piattaforme digitali diventa misurabile attraverso un drammatico resoconto di violenza e vite umane perdute.
Il rapporto, pubblicato il 29 settembre, è basato in parte sui Facebook Paper, i documenti interni resi pubblici da Frances Haugen, e denuncia come gli algoritmi di Facebook abbiano contribuito ai crimini perpetrati nel 2017 dalle forze armate del Myanmar contro la già perseguitata minoranza dei rohingya. Secondo la Commissione delle Nazioni Unite che ha accertato i fatti, “il ruolo dei social media è stato importante” nelle atrocità commesse contro la minoranza birmana.
Secondo il report, la piattaforma di cui è proprietaria l’azienda Meta ha concorso alla campagna di pulizia etnica che causò migliaia di uccisioni, torture e stupri e diede luogo a uno sfollamento di massa di circa 700.000 persone, prevalentemente musulmani, residenti nello stato settentrionale di Rakhine. Negli anni precedenti al 2017, profili riconducibili all’esercito e ai gruppi ultranazionalisti buddisti del Myanmar avevano riversato su Facebook contenuti anti-musulmani. Sono state pubblicate fake news, come per esempio il fatto che i rohingya fossero degli invasori e che stessero preparando un colpo di Stato di matrice islamista.
“Questo è un musulmano. I musulmani sono cani che devono essere uccisi”, è uno dei commenti di un post condiviso oltre 1.000 volte, in cui si dava la falsa notizia che un difensore dei diritti umani dei rohingya fosse un traditore della nazione. “Non lasciamolo vivo”, si legge in un altro commento, “eliminiamo tutta la sua razza. Il tempo sta scadendo”.
Tra gli utenti coinvolti nella campagna di odio ci sono anche figure di spicco dell’esercito della ex Birmania. Il capo delle forze armate dell’epoca, il generale Min Aung Hlaing, oggi ai vertici della giunta golpista che ha preso il potere nel febbraio 2021, aveva scritto in un post: “Dichiariamo apertamente che nel nostro Paese non c’è alcuna razza rohingya”.
Secondo il rapporto, Meta era a conoscenza del fatto che gli algoritmi avessero favorito l’enorme diffusione di contenuti pieni di odio, ma non vi pose rimedio preferendo continuare a fare profitti. Tra il 2012 e il 2017 aveva ricevuto anche ripetute comunicazioni e visite da parte di attivisti locali per i diritti umani. Meta era stata messa in guardia su ciò che stava accadendo, ma non mise in atto le sue politiche sul discorso d’odio. Non recepì l’allarme.
Amnesty International ha chiesto all’azienda di soddisfare le richieste di risarcimento dei rohingya. I leader delle comunità rifugiatesi in Bangladesh, dove tuttora vivono precariamente, chiedono da tempo a Meta di istituire un fondo di 1 milione di dollari per sviluppare progetti educativi. Una somma che rappresenta lo 0,002% dei profitti realizzati da Meta dal 2021, ovvero 46,7 miliardi di dollari. La risposta della multinazionale è stata: “Facebook non s’impegna direttamente in attività filantropiche”.