Alcuni ricercatori dell’Università di Sheffield hanno sviluppato un sistema di intelligenza artificiale in grado di rilevare quali utenti dei social media diffonderanno disinformazione con maggior probabilità, prima ancora che lo facciano effettivamente. Stando alle scoperte del team infatti gli utenti Twitter che condividono contenuti da fonti inaffidabili per lo più twittano di politica o religione, mentre quelli che ripubblicano fonti affidabili twittano di più sulle loro vite personali. Il team ha riportato i risultati dopo aver analizzato più di 1 milione di tweet da circa 6.200 utenti di Twitter.
I ricercatori inizialmente hanno raccolto post da un elenco di account Twitter, che erano stati classificati come affidabili o ingannevoli in quattro categorie: satira, propaganda, bufala e clickbait, recuperando oltre 3200 tweet per ciascuna fonte, rappresentati esclusivamente da post originali, ossia senza eventuali retweet.
In seguito i circa 6.200 utenti di Twitter sono stati inseriti in due gruppi separati: quelli che hanno condiviso fonti inaffidabili almeno tre volte e quelli che hanno sempre ripubblicato storie dai siti affidabili. Le informazioni linguistiche presenti nei tweet sono state infine utilizzate per addestrare una serie di modelli che consentono di prevedere se un utente potrebbe diffondere disinformazione: una soluzione che, secondo il team, consentirebbe di prevedere la pubblicazione di fake news con una precisione del 79,7%.
I ricercatori dell’Università di Sheffield sperano ora che i loro risultati possano aiutare nel prossimo futuro i colossi dei social media a combattere la disinformazione, ormai sempre più diffusa e apparentemente inarrestabile.