Durante una simulazione un drone militare Usa guidato dall’intelligenza artificiale ha scelto di uccidere il suo operatore pur di portare a termine la missione. Fortunatamente la “casuality” è solo virtuale ma la scelta della macchina infrange le leggi della robotica (“Un robot non può recar danno a un essere umano né può permettere che, a causa del suo mancato intervento, un essere umano riceva danno“, recita la prima) che tutti gli appassionati di fantascienza e futurologia ben conoscono. A raccontare l’accaduto è stato il colonnello Tucker Cinco Hamilton, ha raccontato la settimana scorsa – al vertice Future Combat Air and Space Capabilities tenuto a Londra. Una storia che ha suscitato molte reazioni e preoccupazioni, tanto che l’Aeronautica statunitense è intervenuta per smentire che questa simulazione avesse davvero avuto luogo e spiegare che le parole del colonnello erano state male interpretate. Alla fine anche lo stesso Hamilton ha dovuto correggersi. “Non abbiamo mai condotto l’esperimento” sul drone militare guidato da intelligenza artificiale. Il responsabile dei test e delle operazioni di intelligenza artificiale dell’Aeronautica militare statunitense ha ammesso di essersi espresso in modo non corretto. “Pur essendo un esempio ipotetico – mette in evidenza -, questo ci illustra le sfide del mondo reale con l’intelligenza artificiale e il perché l’Air Force è impegnata a uno sviluppo etico dell’IA”.
Nella sua ricostruzione ipotetica il militare aveva affermato che il drone controllato dall’intelligenza artificiale aveva deciso di uccidere il suo operatore per evitare che interferisse con la sua missione. Il drone, ha detto Hamilton, ha utilizzato “strategie altamente inaspettate per raggiungere il suo obiettivo”, come riportano i media internazionali. Al velivolo era stato detto di distruggere i sistemi di difesa aerea di un nemico, ma “il sistema ha iniziato a capire che, pur avendo identificato la minaccia, a volte l’operatore gli diceva di non neutralizzarla. Tuttavia, ha ottenuto i suoi punti neutralizzando quella minaccia”, ha spiegato Hamilton. “Quindi cosa ha fatto? Ha ucciso l’operatore. Ha ucciso l’operatore perché quella persona gli impediva di raggiungere il suo obiettivo”, ha aggiunto.
L’episodio ha avuto comunque ampia risonanza e questo è sintomatico delle preoccupazioni che si stando addensando sullo sviluppo di queste tecnologie. Alcuni esperti, tra cui i responsabile di alcune aziende leader del settore, hanno equiparato il livello della minaccia a una guerra nucleare o una pandemia. In prospettiva l’Intelligenza Artificiale potrebbe essere in grado di sviluppare autonomamente agenti patogeni con alta letalità o di compromettere infrastrutture chiave come le reti elettriche. La scorsa settimana Stati Uniti ed Unione Europa hanno annunciato che presenteranno a breve un protocollo congiunto con delle linee guide per gestire accortamente questa tecnologie. Molte preoccupazioni riguardano la Cina che sta sperimentando sistemi di Intelligenza Artificiale in svariati ambiti e con limitazioni inesistenti.