Abdullah Öcalan è uno dei membri fondatori del partito dei lavoratori curdi, il PKK: il 25 gennaio 2021, un utente di Instagram, negli Stati Uniti, ne pubblica una foto con la frase “Siete tutti pronti per questa conversazione”. Nella didascalia, spiega che è il momento di parlare della fine dell’isolamento di Öcalan nella prigione sull’isola di Imrali, in Turchia e invita i lettori a partecipare a un dibattito sulla natura disumana dell’isolamento carcerario. Il 12 febbraio il post arriva all’occhio di un moderatore: secondo le regole della piattaforma, Öcalan rientra tra le persone e le organizzazioni considerate pericolose. Il post va dunque rimosso. Ricomparirà solo ad aprile.
Ciò che è accade in mezzo fornisce un interessante affaccio sulla macchina della moderazione, quel misterioso procedimento che inizia con un contenuto rimosso o una pagina bloccata e che a volte non si sa come finisce. E’ il tema di una lunga inchiesta del mensile FQ MillenniuM, diretto da Peter Gomez, nel numero attualmente in edicola dedicato alla censura e all’autocensura nell’informazione e sui social. Basta scavare un po’ per accorgersi che i meccanismi che determinano cosa va online e cosa no sono più intricati di quanto si possa immaginare e che “l’algocrazia”, per citare il garante della Privacy italiano, fa la sua parte. I dati e le macchine sempre più assumono un ruolo attivo sulle decisioni. Ormai le piattaforme e i loro enormi numeri di utenti sono come Stati virtuali con regole, tribunali, garanti e la necessità di tenere tutti al sicuro dentro e fuori. Un potere che gli diamo noi stessi quando decidiamo di iscriverci e che governi e istituzioni non sono finora riusciti a orientare, nonostante le richieste delle piattaforme stesse.
Il nostro viaggio inizia con l’Oversight Board, il comitato di controllo di 40 esperti da tutto il mondo (professori, esponenti di Ong, attivisti per i diritti civili) scelti la prima volta da co-presidenti nominati da Facebook e che da gennaio 2021 ha il compito di esprimersi sui contenziosi di Facebook e Instagram sulla moderazione dei contenuti. Su Öcalan non solo decide che il post va ripristinato ma scopre però anche che il social stesso da almeno tre anni si è dimenticato di applicare alle sue policy un’eccezione relativa alla libertà di discussione, ad esempio, sul tema delle condizioni di prigionia di quegli stessi soggetti che ritiene pericolosi. Una dimenticanza che potrebbe aver fatto rimuovere “per errore” molti altri post. Inoltre, il board rileva che molto spesso agli utenti non è ben chiaro cosa stia succedendo ai propri contenuti e suggerisce alla piattaforma di provare a essere più chiara. Non sempre, infatti, a Facebook riesce. Ancora meno alle altre piattafome.
Ne abbiamo parlato con Mark Smith, il Director Public Policy Strategic Response per Facebook e Instagram. Praticamente è il direttore globale per le norme sui contenuti, prima si occupava di affari internazionali e sicurezza nazionale. Sulle piattaforme, allo stesso modo, ha come obiettivo principe la protezione degli utenti e della comunità. Ne approfittiamo per farci raccontare cosa sia successo durante la tensione israelo-palestinese dei mesi scorsi, quando migliaia di contenuti sulle violenze sono spariti e gli utenti hanno iniziato ad accusare Facebook di essere filo-Israele. Ci spiega che è uno di quei casi in cui la moderazione dei contenuti è gestita con una sorta di unità di crisi, con un “Centro operativo speciale”, quasi fosse una guerra.
A fallare, in quel caso, sarebbe stata la tecnologia, con problemi che hanno portato a credere che stessero intenzionalmente sopprimendo i contenuti. Un bug tecnico del sistema “storie” di Instagram avrebbe cancellato di fatto i momenti salienti pubblicati e gli archivi di milioni di persone nel mondo e “coinvolgendo molti utenti palestinesi.(…) Non appena siamo venuti a conoscenza del problema, lo abbiamo risolto”. Dall’esterno, però, è passato il messaggio che si volesse essere vicini al governo israeliano. “Noi non rispondiamo alle richieste del governo – spiega Smith –. Le nostre policy valgono per tutti”(…) Scopriamo però anche che le regole però non sono statiche, i social le cambiano continuamente, adeguandole a quanto accade nel mondo e alla percezione sociale. I moderatori, in gran parte assunti da società terze, e le macchine, si limitano a obbedire, con tutti i loro molti limiti. Inevitabilmente, trovare un equilibrio tra sicurezza e libertà (di espressione, nello specifico) diventa molto difficile (…).
Leggi l’inchiesta completa su FQ Millennium di settembre, in edicola e su tablet
Ne parliamo in diretta Facebook (qui il LINK) a MillenniuM Live venerdì 16 settembre alle 15 con l’autrice dell’inchiesta, Virginia Della Sala, e l’esperto di web reputation Matteo Flora.