L'ultimo rapporto sull’applicazione dei cosiddetti “Standard della comunità" evidenzia che i contenuti rintracciati e rimossi sono passati da 9,6 milioni del primo trimestre a 22,5 milioni nel secondo. Su Instagram la stessa dinamica. Il social ha ammesso che l’aver mandato a casa i revisori di contenuti durante la pandemia ha di fatto reso meno efficiente il controllo, soprattutto su temi delicati come il suicidio, lo sfruttamento dei minori, il bullismo e le molestie
Il lockdown che ha costretto tutti a casa per mesi ha avuto un riflesso anche sui contenuti dei social network. Non solo l’inevitabile impennata di contatti che si è registrata da quando comunicare online è diventata l’alternativa obbligata, ma anche quella dei peggiori istinti: secondo i dati dell’ultimo rapporto sull’applicazione dei cosiddetti “Standard della comunità di Facebook”, da gennaio a giugno di quest’anno i contenuti di incitamento all’odio (rintracciati e rimossi) sono passati da 9,6 milioni del primo trimestre a 22,5 milioni nel secondo. Più del doppio. E quasi il triplo rispetto a fine anno: erano 7 milioni negli ultimi tre mesi del 2019. Su Instagram stessa dinamica: si è passati da 808.9 mila del primo trimestre ai 3,3 milioni dei mesi aprile-maggio-giugno.
Dal report emerge come Facebook, oggi nel mirino del Congresso e della politica americana con le altre big tech, abbia cercato di tenere sotto controllo i contenuti circolati sulla piattaforma durante l’emergenza Covid-19. Non riuscendoci sempre: se da un lato nel 94,5 per cento dei casi (e nell’84,2 per cento su Instagram) è riuscita ad agire sui contenuti di incitamento all’odio prima che fossero segnalati dagli utenti (quindi rintracciandoli con strumenti automatici), dall’altro il social ha ammesso che l’aver mandato a casa i revisori di contenuti “per proteggere la loro salute e garantire la loro sicurezza” ha di fatto reso meno efficiente il controllo in alcune aree importantissime.
Mentre la tecnologia per l’identificazione e la rimozione di alcuni contenuti (come l’incitamento all’odio) migliora con gli automatismi, ci sono in effetti aree tra le più delicate in cui è necessario affidarsi alla valutazione umana. “Ad esempio – spiegano – ci affidiamo molto alle persone per rivedere i contenuti relativi al suicidio, all’autolesionismo e allo sfruttamento dei minori”. Infatti, gli interventi sui contenuti legati a questi temi sono passati dai 5 milioni della fine del 2019 a poco più di 900mila a fine giugno (1,7 milioni da gennaio a marzo). Quelli relativi allo sfruttamento dei minori (sessuale e non) da 13,3 milioni di dicembre a 9,5 milioni a giugno (8,6 milioni tra gennaio e marzo). Non è stato neanche possibile sapere quale impatto questi contenuti abbiano avuto prima della loro rimozione, cioè quanto si siano diffusi e quanto siano stati visti dagli altri utenti: “Abbiamo dato priorità alla rimozione rispetto alla misurazione – spiega Facebook – Prevediamo di poter condividere queste metriche entro il terzo trimestre nel nostro prossimo report”.
Diminuiscono molto anche i ricorsi contro le decisioni di rimozione dei contenuti: “Non sempre siamo stati in grado di renderli disponibili – ammette il social – Abbiamo informato le persone e dato loro la possibilità, nei casi in cui ritenevano ci fosse un errore da parte nostra, di comunicarci che non erano d’accordo”. Anche in questo caso, infatti, è fondamentale la valutazione umana.
Poi, le notizie positive. Secondo la piattaforma, il tasso di rilevamento proattivo – dunque senza necessità di una segnalazione da parte degli utenti – per i discorsi di incitamento all’odio è aumentato di 6 punti, complice il potenziamento di alcune tecnologie di rilevamento in spagnolo, arabo e indonesiano ma anche inglese e birmano. Su Instagram l’incremento è stato di 39 punti (dal 45% all’84%). Per quanto riguarda il terrorismo, su Facebook la quantità di contenuti su cui sono intervenuti è passata da 6,3 milioni nel primo trimestre a 8,7 milioni nel secondo. Un exploit: a fine 2019 erano 5,2 milioni. E sono aumentate anche le rimozioni dei contenuti d’odio organizzato (1,6 milioni a fine 2019 e 4 milioni nel trimestre aprile-giugno).
Per bullismo e molestie, invece, gli interventi sono stati 400mila in meno (dai 2,8 milioni a dicembre 2019 a 2,4): anche in questo caso i revisori umani sono fondamentali. Solo nel 13,3 per cento dei casi la piattaforma è riuscita a intervenire prima che gli utenti segnalassero i contenuti.
Il social risponde poi alle polemiche di questi mesi, accusato di non aver preso posizione durante le proteste razziali statunitensi (e in generale di essere troppo “timido” nello schierarsi) con alcune iniziative sull’inclusione: “Abbiamo fatto progressi nel combattere l’odio con le nostre app, ma sappiamo di dover fare di più per garantire che tutti si sentano a proprio agio – spiegano – . Per questo motivo abbiamo istituito nuovi team e task force inclusivi e stiamo lanciando il DiversityAdvisoryCouncil che fornirà input basati sull’esperienza vissuta”. Poi, spiegano, “stiamo aggiornando le nostre policy per tenere conto in modo più specifico di alcune tipologie di discorsi impliciti di odio, come i contenuti che raffigurano persone di colore o gli stereotipi sugli ebrei che controllano il mondo”. Un passo in più rispetto alla rimozione e al bando di 23 organizzazioni di cui “oltre la metà sosteneva il suprematismo bianco”, il minimo sforzo per chi contro questo genere di organizzazioni si è battuto per mesi.