Sappiamo che può essere psicopatica, sappiamo anche che può essere un medico, è stato già dimostrato che può essere aggressiva o cooperare. E tanto altro. Ma fino ad ora non sapevamo che poteva essere disorientata e diventare preda di un hacker come oguno di noi, ognuna delle nostre macchine. Ora sappiamo anche che l’intelligenza artificiale può essere disorientata con poco, può diventare una preda di una nuova generazione di hacker. Almeno è quello che ha dimostrato un test: l’intelligenza aveva sotto gli occhi l’immagine di una tartaruga ma era “convinta” che fosse un fucile, una tazzina di caffè espresso è stata interpretata come una palla da baseball stampata in 3D. A lanciare l’allarme, riferisce la rivista Science sul suo sito, è la conferenza internazionale sull’apprendimento automatico, Icml (International Conference on Machine Learning).
È emerso, ad esempio, che è sufficiente alterare leggermente un’immagine, un oggetto o un suono per prendersi gioco del più sofisticato dei sistemi di AI. I rischi per la sicurezza non sono difficili da immaginare, considerando che ai sistemi di apprendimento automatico cominciano a essere affidati compiti delicati, che prevedono un’interazione diretta con l’uomo, come guidare un’auto autonoma.
Fra i primi gruppi di ricerca che si sono attivati per mettere a punto delle contromisure c’è quello del Massachusetts Institute of Technology (Mit) coordinato da Anish Athalye. “Abbiamo bisogno di ripensare completamente la nostra concezione di apprendimento automatico per renderlo più sicuro”, ha rilevato, Aleksander Madry, del Mit. Gli attacchi sono certamente una minaccia, ma costituscono anche un campanello d’allarme prezioso per i ricercatori perché possono rivelare nuovi meccanismi d’azione delle reti neurali. Gli attacchi possono essere considerati “una lente d’ingrandimento attraverso la quale capire che cosa sappiamo dell’apprendimento automatico”, ha detto Dawn Song, dell’Università della California a Berkeley.