Diverse ricerche mostrano come i software automatici siano già entrati nelle nostre vite. Non siamo abbastanza bravi nel capire quando cercano di manipolarci, anzi siamo pronti a fidarci di loro pur sapendo che sono intelligenze artificiali.
L’invasione dei robot è già cominciata, ma non somigliano a Terminator. Ricordano più L’invasione degli Ultracorpi, film cult di fine anni ’50 in cui degli extraterrestri si sostituivano durante il sonno agli abitanti di una cittadina. In questo caso sono i software intelligenti a “infilarsi” tra noi, fingendosi umani. Per dimostrarlo il professor Emilio Ferrara della University of Southern California (vicino a Los Angeles), ha condotto una ricerca. Ha creato Botometer e BotOrNot, due software automatici che funzionano su Twitter, fatti per distinguere tra umani e robot (anche detti bot).
Ferrara ha scoperto che distinguere tra umani e bot è ogni giorno più difficile, e suggerisce che molti di noi probabilmente sbagliano quando si dicono convinti di poter distinguere con facilità tra un essere umano e un individuo artificiale. Sottolinea che i bot si fanno sempre più sofisticati e credibili, tant’è vero che nel 2016 i suoi strumenti ne rilevavano il 20%, oggi si fermano al 10-11%.
Che cosa sono esattamente questi bot? Sono identità digitali che cercano di emulare un vero essere umano, a volte cercando di spacciarsi per persone in carne e ossa. È una categoria molto ampia, che va dagli assistenti digitali di Amazon, Apple o Google, fino agli addetti del servizio clienti su Facebook, Messenger e Whatsapp. Può essere un bot anche l’assistente digitale sul sito della vostra banca, oppure un falso account sui social media. Ferrara si occupa soprattutto di Twitter, quindi ha svolto la ricerca in quell’ambito. Però la situazione su Facebook non è molto diversa. E poi ci sono le voci sintetiche, che rispondono o chiamano al telefono. Sono tante in Italia, se si guarda alla Cina o agli Stati Uniti sono un’impressionante moltitudine.
In sostanza, non pensate che per fare un robot ci voglia un corpo di metallo: ciò che conta è il cervello digitale. Per Ferrara ormai siamo al punto in cui riconoscere un bot è una questione di pura fortuna, come il lancio di una moneta (e tra poco sarà come tirare i dadi e fare sette).
Gli aspetti critici riguardano il marketing, e in particolare la pubblicità sul Web. È ancora in gran parte priva di regole, e i bot rendono possibili strategie persuasive fin troppo efficaci. In quest’ambito rientra poi la manipolazione politica: i bot ritwittano, pubblicano, mettono cuoricini e like, trasformano le inezie in “bombe” virali. E nel fare queste azioni spostano voti – non si sa quanti. Come spiega Ferrara al prestigioso quotidiano The Guardian, “si sono dimostrati molto efficaci nel trasmettere punti di vista estremisti e diffondere teorie della cospirazione”. Esempi di azioni simili ci sono in tutto il mondo, dal conflitto ceceno alla primavera araba, fino alle ultime elezioni presidenziali statunitensi. Per le recenti consultazioni di “midterm” Ferrara parla apertamente di questi software come armi (weaponized bots).
A rendere la situazione più complicata c’è il fatto che noi esseri umani, a quanto pare, siamo più che disponibili ad ascoltare una voce artificiale. E anche sapendo che si tratta di una macchina, siamo pronti a confidarci con lei: lo scoprì Joseph Weizenbaum già nel 1966. Oggi, invece, vediamo come certe persone preferiscano apertamente rivolgersi a una programma per computer, in particolare per argomenti delicati quali la la contraccezione o le malattie a trasmissione sessuale.
Guardando al futuro, la ricercatrice Lisa Maria Neudert dell’Università di Oxford suggerisce che in futuro i bot saranno in grado di contattare le persone potenzialmente più inclini a ricevere e diffondere un certo messaggio – di fatto amplificando la portata e la viralità della propaganda personalizzata. Un meccanismo che, secondo Ferrara, potrebbe finire per aumentare il problema della radicalizzazione. Il guaio, conclude Ferrara, è che uno dei motivi di tutto ciò è che “è che le persone sono davvero pessime nel determinare la fonte di un’informazione “.