Un software messo a punto da un team di ricercatori del Cnr di Pisa potrà esaminare il comportamento dell'utente sul social network: "Ci sono bot utili come le esche per i pedofili, ma altri che diffondono informazioni manipolabili e infatti sono molto usati in politica per costruire un consenso che in realtà non esiste"
Hanno un nome e una foto credibile, ma Marco Gigliola, Giorgia Grassin, Lorenza Mignon non sono umani, sono bot (cioè robot). La Rete ne è piena e noi non lo sappiamo. Qualcuno li ha creati, qualcuno li manovra. L’utente medio può accorgersene? Forse sì, ma solo dopo averli intercettati, verificato i post, retweet e commenti. Alzi la mano chi lo fa. Le piattaforme dei vari social network vietano i fake, eppure i fake continuano a proliferare. Ma la soluzione adesso c’è ed è nel Dna, un “Dna digitale“, in grado di dirci se abbiamo a che fare con un essere umano o con un bot.
Si tratta di un software, messo a punto da un team di ricercatori del Cnr di Pisa, che potrà analizzare il comportamento dell’utente su twitter con una tecnica usata dalla bioinformatica nel sequenziamento del Dna umano. Un sistema capace di scovare i bot più raffinati e di ultima generazione, molto più accurato e veloce rispetto ai vecchi metodi utilizzati fino ad ora, poco affidabili e lenti, costretti a procedere caso per caso, utente per utente. Come funziona? “Ad ogni tipo di azione eseguita dall’utente – ci spiega Maurizio Tesconi, ingegnere del team – abbiamo assegnato una base, cioè una lettera. Prendiamo Twitter, ogni tweet, retweet, like o commento corrisponde a un’azione. La sequenza di azioni dà luogo a una sequenza di caratteri, proprio come avviene con le stringhe del Dna. Analizzandoli in gruppo, è possibile far emergere i bot dagli umani perché i bot risultano avere sequenze simili, un codice genetico comune, come dire… digitale, ben diverso da quello degli esseri umani”.
Le applicazioni possibili sono infinite, dal 1966 e da Eliza (forse il primo vero robot), i software che in rete simulano in tutto e per tutto il comportamento umano si stanno evolvendo a tal punto da essere irriconoscibili e lo saranno sempre di più. Che l’utente medio potesse essere tratto in inganno era questione già balzata agli occhi
di numerosi ricercatori: l’Università dell’Indiana aveva creato BotOrNot, un sistema per distinguere i fake dai profili veri. Ma il punto, rileva Stefano Cresci, dottorando del team è “chi si mette a fare questo lavoro per ogni utente che incontra nella rete? Il fenomeno è in crescita e Facebook e Microsoft annunciano grandi novità nel settore”. Tesconi poi precisa: “Ci sono i bot utili, come quelli usati in emergenze di protezione civile oppure gli ‘honey bot’, esche per agganciare i pedofili. Il rovescio della medaglia è che chiunque può creare un bot e per qualunque fine. I bot servono a diffondere un marchio, le agenzie di social media marketing ne fanno ampio uso e la politica anche, in maniera trasversale”.
Un flusso di informazioni manipolabile e manipolato. Ma come? “I bot sono largamente usati in politica – spiega Alex Orlowski, esperto di strategie digitali, marketing politico e Osint (Open Source Intelligence) – per costruire e mostrare al pubblico un consenso che in realtà non esiste, o per fare tweet bombing contro un politico: due o trecento fake che con i loro post fanno sì che una massa critica di opinione pubblica sia contro di lui. Quello che consegue è una sorta di ‘effetto alone’: se vedo che un tweet ha un elevato numero di like, non solo sono portato a leggerlo, ma lo leggo con più attenzione e tendo a dare credito all’opinione espressa in quel tweet, arrivo addirittura a retwittarlo per entrare a far parte di quel gruppo “dominante”. Ma un ambito così delicato come è regolamentato? “Le regole ci sono già – chiarisce Vincenzo Cosenza, social media stategist di Blogmeter – Twitter vieta la creazione di un profilo falso, inoltre non si può creare un bot che fa centinaia di retweet o che in qualche modo amplifica un messaggio, con il rischio di manipolazione del flusso informativo generale. Qualunque attività di automazione sui social network dovrebbe prima essere autorizzata dalla piattaforma con un accordo specifico, mi riferisco a ambiti come quelli legati all’antiterrorismo, ad esempio. Ma tutto il resto viene fatto fuori dalle regole”.