Si chiama Perspective: rivede i commenti e assegna loro un punteggio basato su quanto siano simili ad altri messaggi che gli utenti hanno indicato come "tossici" o tali da spingere le persone ad abbandonare la conversazione. "Almeno un terzo di loro si autocensura per paura delle reazioni"
Non censura e non banna, ma avverte gli editori della presenza di commenti offensivi sotto le notizie pubblicate online attraverso il machine learning. Dopo la decisione di Twitter di cancellare gli account fake, Google mette a punto un nuovo strumento per contrastare gli haters. Si chiama Perspective ed è stato messo a punto da Jigsaw, incubatore di New York. Funziona così: rivede i commenti e assegna loro un punteggio basato su quanto siano simili a commenti che gli utenti hanno indicato come “tossici” o tali da spingere le persone ad abbandonare la conversazione. Per imparare a identificare un linguaggio potenzialmente ingiurioso, Perspective ha esaminato decine di migliaia di commenti che sono stati etichettati manualmente da revisori umani, ogni volta che lo strumento di Jigsaw trova nuovi esempi di commenti potenzialmente offensivi, o la sua valutazione viene corretta dagli utenti, “migliora la capacità di valutare i commenti in futuro”.
“Abbiamo testato una versione di questa tecnologia con il New York Times, dove c’è un team che controlla e modera ogni commento prima che venga pubblicato, revisionando oltre 11mila commenti ogni giorno. Sono davvero moltissimi commenti, troppi per essere letti da un solo team” sottolinea Jared Cohen, presidente di Jigsaw in un post. “Il Times – spiega ancora Cohen – offre la possibilità di commentare solo sul 10% circa dei propri articoli. Abbiamo lavorato insieme per realizzare dei modelli che consentano ai moderatori del Times di selezionare i commenti più velocemente e speriamo che questo possa aumentare il numero di articoli commentabili”.
Perspective deve lanciare l’allarme in una realtà con la quale non si può non fare i conti e che da mesi è al centro del dibattito mediatico. “Immaginate – scrive il presidente di Jigsaw – di avere una conversazione con un vostro amico su una notizia che avete letto questa mattina, ma ogni volta che dite qualcosa qualcuno vi urla in faccia, vi insulta o vi accusa di un terribile crimine. Se così fosse, probabilmente mettereste fine alla conversazione“. “Sfortunatamente, – osserva – questo avviene sempre più frequentemente online, quando la gente cerca di esprimere le proprie opinioni sul suo sito di informazione preferito e viene invece attaccata con commenti offensivi”. Cohen ricorda che “il 72% degli utenti internet americani è stato testimone di episodi di questo tipo e almeno la metà di loro ha avuto un’esperienza diretta. Almeno un terzo di loro si autocensura per paura delle reazioni. Pensiamo che la tecnologia possa aiutare a risolvere questo fenomeno” aggiunge il manager. E qui scatta Perspective. “Attraverso una Api, un’interfaccia di programmazione, gli editori – inclusi i membri della Digital News Initiative (Fondo per l’innovazione creato da Google e rivolto ai media) – e le piattaforme possono avere accesso a questa tecnologia e utilizzarla per i propri siti“.
Gli editori “possono scegliere cosa fare con le informazioni che ottengono da Perspective. Ad esempio, un editore – spiega Cohen – potrebbe decidere di segnalare i commenti ai propri moderatori in modo che questi li rivedano e decidano se includerli o meno in una conversazione. Oppure, potrebbe utilizzare questo strumento per aiutare le persone della sua community a capire l’impatto di quanto stanno scrivendo, ad esempio permettendo agli utenti che commentano di vedere il potenziale di ‘tossicità’ dei propri commenti mentre li stanno scrivendo”.
E ancora. Gli editori, continua il presidente di Jigsaw, “potrebbero anche solo permettere ai lettori di ordinare i commenti in base a quanto sono offensivi, facilitando così l’individuazione di conversazioni interessanti nascoste” in mezzo a quelle che insultano.