Mark Zuckerberg afferma che negare l’Olocausto è “profondamente offensivo” ma dice anche che questo tipo di contenuti non va vietato da Facebook perché “ci sono cose diverse che persone diverse capiscono in maniera sbagliata. Ma non credo che lo fanno intenzionalmente”. Una frase comparsa in un’intervista alla testata Recode che il presidente del social network ha dovuto subito rettificare, precisando che “non volevo assolutamente difendere le persone che lo negano”.
Il discorso di Zuckerberg riguardava più in generale il funzionamento del suo Facebook, con i molti risvolti nel navigare fra libertà e regole, e la difesa del meccanismo, come più volte il Ceo del social network si è trovato a fare negli ultimi mesi. “Il nostro obiettivo sulle fake news non è quello di impedire che qualcuno possa dire qualcosa di non vero, ma impedire che le fake news e la disinformazione si diffondano sul network”, ha spiegato Zuckerberg a Recode.
Da qui l’esempio sull’Olocausto che ha portato a molte critiche. Su tutte quella dell’Anti-Defamation League, organizzazione non governativa internazionale ebraica con sede negli Stati Uniti che ritiene che Facebook abbia “l’obbligo morale e etico” di bloccare questo tipo di contenuti tra gli utenti.
Come funziona – La rimozione di contenuti dal social network avviene solo nel caso in cui questi si traducano in danni reali, fisici o in attacchi a individui. Facebook rimuove una pagina o un gruppo se riceve 5 bombardamenti di richieste di sospensione in 90 giorni, o se almeno il 30% dei contenuti postati violano gli standard della comunità. Sulla piattaforma digitale circolano così contenuti disturbanti mentre altri vengono invece incomprensibilmente censurati.
“I documenti che abbiamo ottenuto sono recenti, le policy di Facebook cambiano continuamente, quindi non è chiaro se questi parametri precisi siano ancora validi. Per YouTube, ad esempio, bastano tre bombardamenti- dichiara il sito Motherboard che afferma di aver ottenuto un documento riservato della compagnia – norme simili esistono anche per l’hate speech, con un profilo che dovrebbe essere sospeso se ci sono cinque o più contenuti che indichino una propaganda all’odio”.
Sulle modalità di censura adottate da Facebook ha indagato anche il Mirror: è emerso che ai moderatori è richiesta la massima segretezza sui criteri adottati, ma anche che una delle indicazioni è non rimuovere troppi contenuti per evitare che gli utenti abbandonino la piattaforma.