La notizia, che molti giornali e siti web hanno ripreso con un certo sensazionalismo e a volte una buona dose di approssimazione, è di quelle che sembrano arrivare dritte da un film di fantascienza. Nei laboratori di Facebook avrebbero interrotto un esperimento perché le intelligenze artificiali (Ai) sarebbero andate “fuori controllo”. In realtà, le cose non sono così drammatiche, ma spingono comunque a qualche riflessione.
Che cos’è successo nei laboratori di Facebook? In parole povere è successo che due bot hanno deciso che l’inglese fosse uno strumento di comunicazione poco efficace e hanno cominciato a “parlare” tra loro sviluppando un linguaggio che era incomprensibile per gli analisti che ne controllavano il funzionamento. Un comportamento del tutto naturale, viste le premesse (l’Ai è pensata proprio per trovare sistemi più efficaci per risolvere i problemi), ma che ha comprensibilmente allarmato gli stessi ricercatori.
Al di là del caso specifico, la notizia è indizio di una realtà che tendiamo a ignorare: lo sviluppo dell’intelligenza artificiale è molto più avanzato di quanto si possa generalmente pensare. Nel settore della sicurezza informatica, per esempio, il machine learning è considerato una delle chiavi per individuare le minacce ancora sconosciute e le società antivirus stanno investendo cifre importanti nello sviluppo di motori Ai sempre più evoluti, non senza qualche dubbio.
Qualche settimana fa mi è capitato di partecipare a un incontro a Helsinki con Mikko Hypponnen, uno dei più celebri esperti di sicurezza informatica. Affrontando il discorso dell’Ai, Hypponensi è lasciato andare a qualche considerazione forse un po’ “filosofica” ma decisamente interessante. Per esempio: siamo consapevoli che creando una “vera” intelligenza artificiale l’uomo abdica al suo ruolo di essere il più intelligente sul pianeta Terra?
Al di là delle facili ironie sulla reale intelligenza dell’essere umano (devastare l’ambiente in cui si vive è sintomo di intelligenza?) tutta la questione legata allo sviluppo dell’Ai pone questioni decisamente spinose, a partire per esempio dal caso delle auto senza pilota (dalla Google Car alla Tesla) per le quali è nato un vero e proprio dibattito scientifico-etico.
Il tema è: visto e considerato che le auto sono controllate da un computer e che questo non si può certo appellare a quell'”istinto del momento” che guida tutti noi quando siamo alla guida e ci troviamo ad affrontare una situazione di emergenza, come fissare le regole che dovranno seguire? Come faranno a decidere se sacrificare i passeggeri o i pedoni nel caso in cui si trovassero nella situazione di dover fare una scelta del genere? E ancora: è possibile che possano decidere chi sacrificare sulla base di altre considerazioni (per esempio sesso o età) quando devono scegliere chi eleggere a “vittima accidentale”?
Qualcuno se ne sta già occupando tramite un sito internet gestito dal Mit, chiamato “Moral Machine”. Il sito (piuttosto agghiacciante) conduce una sorta di sondaggio di massa tra le persone, per registrare le loro scelte in situazioni in cui l’intelligenza artificiale al controllo di un’auto senza conducente debba scegliere chi sacrificare. Meglio travolgere un gruppo di rapinatori o una famigliola? Meglio investire una ragazza e il suo cane o mandare i passeggeri a sbattere contro un muro?
Il punto è che, alla luce della vicenda Facebook, l’idea che le scelte dell’intelligenza artificiale possano essere fossilizzate in un rigido decalogo si sgretola. Il fulcro stesso del concetto di Ai non è infatti che il computer si limiti a eseguire ordini in base a una serie di istruzioni statiche, ma che impari a elaborare la realtà in autonomia. Banalizzando, non si limita ad applicare regole fissate, ma si crea da solo le regole che consentono di raggiungere con la massima efficacia l’obiettivo.
Rimaniamo all’esempio delle auto senza conducente e facciamo qualche speculazione, inserendo altri elementi come la possibilità di accedere in tempo reale ai Big Data e sfruttare funzioni come il riconoscimento facciale. È così assurdo che di fronte a una situazione come quelle descritte in precedenza l’Ai proceda al riconoscimento dei pedoni per valutare quale sia meglio sacrificare? Magari andando a verificare la cartella clinica online per valutarne l’aspettativa di vita o il curriculum su Linkedin per giudicare quale sia il “peso sociale” della perdita della possibile vittima?
C’è anche un’altra argomentazione che va considerata. Quando pensiamo ai possibili danni che l’intelligenza artificiale potrebbe procurare, abbiamo sempre in mente il classico schema dell’esperimento “sfuggito di mano”, un po’ come accade con la rete di supercomputer Skynet nella saga di Terminator. Ma siamo certi che qualcuno non possa sviluppare un sistema di intelligenza artificiale con deliberati obiettivi dannosi?
Qualche giorno fa mi è capitato di scrivere di un esperimento descritto nel corso del Def Con 2017 di Las Vegas, in cui un ricercatore ha dimostrato come sia possibile usare l’intelligenza artificiale per creare malware in grado di sfuggire al controllo della “intelligenza artificiale degli antivirus”. Per realizzare l’esperimento, i ricercatori hanno usato una piattaforma chiamata OpenAi e promossa da un signore che si chiama Elon Musk e che (guarda un po’) è anche il fondatore di Tesla.
Se all’equazione aggiungiamo il fatto che le tecnologie informatiche, rispetto ad altre tecnologie, non richiedono necessariamente l’uso di grandi mezzi per il loro sviluppo e tendono naturalmente a essere condivise in tempi brevissimi, viene da dire che qualche domanda forse è il caso di porsela. E visto che colossi come Amazon, Google, Facebook e Apple stanno facendo a gara a chi arriva primo alla creazione di un sistema Ai davvero efficace, la più importante forse è: che cosa potrà mai andare storto nel creare una super intelligenza artificiale con accesso illimitato ai dati che stiamo accumulando da anni?