Dalla guerra in Ucraina fino a Gaza, ormai è già diventato una realtà. Nel campo di battaglia dei conflitti oggi in corso, l’utilizzo dell’Intelligenza Artificiale nell’ambito militare e di armi con capacità autonome nell’ultimo anno ha già mostrato la sua potenzialità distruttiva. Basti pensare ai software che sfruttano l’IA ‘Lavender’ e ‘The Gospel‘, utilizzati da Israele e dal suo esercito, per generare una lista di 37mila obiettivi da colpire, aumentando in modo esponenziale il numero di vittime civili e “danni collaterali”. Un sistema svelato dalle inchieste giornalistiche di +972 e Local Call, ma confermato almeno in parte anche dallo stesso Idf, che parlò di un “sistema che consente l’uso di strumenti automatici per produrre target a ritmo rapido, che funziona migliorando il materiale di intelligence”. Tradotto, utilizzando la mole enorme di dati personali e biometrici raccolti nei database dall’intelligence israeliana su tutta la popolazione palestinese, da Gaza alla Cisgiordania. Eppure, questi sistemi non sono certo casi isolati.
Non è un caso che la società civile mondiale, nonostante le resistenze delle superpotenze e dell’industria globale degli armamenti, da anni sia attiva per cercare di frenare l’autonomia applicata ai sistemi d’arma, oggi di fatto non regolamentata. Creata nel 2012, la campagna “Stop Killer Robots” è un’iniziativa internazionale alla quale hanno aderito 250 realtà e organizzazioni non governative di 70 Paesi differenti, così come migliaia di scienziati e associazioni in tutto il mondo, per sollecitare i governi affinché si vieti (o quantomeno si regolamenti, ponendo forti restrizioni) l’utilizzo delle armi autonome letali (secondo l’acronimo inglese, LAWS, ovvero Lethal autonomous weapons systems).
“Il nostro obiettivo è arrivare a un trattato internazionale per proibire le armi autonome, ovvero armi che usano algoritmi per colpire automaticamente le persone, senza controllo umano. Siamo cresciuti, da dieci anni ormai discutiamo di questo tema alle Nazioni Unite, a Ginevra. Ora siamo coinvolti in riunioni anche a New York, come parte dell’Assemblea generale, così come della Prima commissione sul disarmo. Ma serve spostare davvero quelle discussioni all’Assemblea, perché Ginevra è un formato in cui ogni Stato ha diritto di veto, quindi paesi come la Russia, gli Stati Uniti o la Cina possono impedire che accada qualsiasi cosa loro non vogliano”, spiega al Fattoquotidiano.it Peter Asaro, professore di filosofia della scienza e della tecnologia presso la School of Media Studies della New School di New York e vice presidente della campagna, nel corso del convegno “Intelligenza delle macchine e follia della guerra: le armi letali autonome”. Un’iniziativa organizzata a Roma da Archivio Disarmo e da Rete italiana pace e disarmo, alla quale il numero due della campagna ha partecipato, ribadendo l’urgenza di arrivare, alla sessione di ottobre dell’Assemblea generale delle Nazioni Unite, a una risoluzione vincolante.
“L’Assemblea generale è molto più democratica. Possono partecipare tutti gli Stati, non soltanto quelli che fanno parte della ‘Convenzione su certe armi convenzionali‘. E possiamo anche affrontare questioni legate ai diritti umani, oltre che al diritto internazionale umanitario, che copre solo i conflitti armati”, ha continuato Asaro. “Sono inaccettabili la disumanizzazione, il bersaglio e l’uccisione di persone nei contesti militari tramite la IA, così come è da regolare il suo impiego nei compiti di polizia, nel controllo delle frontiere e nella società in generale. Le decisioni sulla vita o sulla morte non possono essere delegate alle macchine: è tempo di passare alla negoziazione di un trattato che preservi la dignità umana e garantisca un controllo umano significativo”, è l’appello della campagna.
A ricordare i pericoli è anche il professor Fabrizio Battistelli, presidente di Archivio Disarmo: “L’uso dell’intelligenza artificiale in campo militare rischia di rendere più facile lo scatenarsi delle guerre. Il motivo? Se per i governi la resistenza delle opinioni pubbliche è ancora un freno, almeno tra le democrazie, considerata la contrarietà rispetto alla perdita di vite umane tra i propri eserciti, l’automazione completa può far saltare questa deterrenza”, avverte.
Ma la battaglia contro le armi autonome è condivisa anche dal premio Nobel per la fisica Geoffrey Hinton. Nonostante sia stato premiato per aver posto le basi dell’apprendimento autonomo delle macchine, da tempo si è schierato contro l’applicazione di sistemi di IA in ambito bellico. Nel novembre 2017, lo stesso Hinton si era unito ad altri esperti per esortare il primo ministro canadese Justin Trudeau a prendere posizione contro le LAWS, sostenendo che il loro sviluppo e utilizzo avesse oltrepassato una “chiara linea morale”.
Di fronte agli investimenti nello sviluppo da parte delle principali potenze militari globali, e a quanto già avvenuto tra Ucraina e Gaza, al di là di minimi controlli umani ancora presenti, il rischio concreto è che la strada verso la completa automazione dei sistemi d’arma sia però ormai segnata. Non sono un caso i tentativi continui da parte delle stesse potenze di boicottare il percorso che possa portare a una risoluzione vincolante che preveda il possibile divieto (o almeno una regolamentazione) delle armi autonome.
Eppure, come ha ricordato Asaro nel corso del suo intervento a Roma, già il 1 novembre 2023, su pressione della società civile, è stata adottata una prima risoluzione alle Nazioni Unite. È stata la Prima Commissione (quella dedicata al Disarmo) dell’Assemblea Generale delle Nazioni Unite ad approvare il primo testo in assoluto sulle LAWS, sottolineando la “necessità urgente per la comunità internazionale di affrontare le sfide e le preoccupazioni sollevate dai sistemi di armi autonome”. Certo, pur non spingendosi fino alla richiesta di negoziati, questa Risoluzione aveva rappresentato un passo in avanti, secondo la campagna Stop Killer Robots, anche perché votata da una stragrande maggioranza di Paesi, ben 164, con la contrarietà di Bielorussia, Russia, India, Mali e Niger e otto astensioni (dalla Cina alla Corea del Nord, passando per Iran, Israele, Arabia Saudita, Siria, Turchia e Emirati Arabi Uniti). Ora però serve un passo ulteriore, per arrivare a un trattato vincolante.
Lo stesso richiesto pure dal Segretario generale delle Nazioni Unite, Antonio Guterres, che nel luglio 2023 aveva già lanciato un appello urgente agli Stati affinché adottassero un Trattato Onu per vietare le armi letali autonome entro il 2026. Un richiamo condiviso anche dalla presidente del Comitato internazionale della Croce rossa Mirjana Spoljaric Egger, oltre che da Papa Francesco, che lo ha ribadito di fronte ai leader del G7 riuniti in Italia la scorsa estate. Ora la nuova sfida si è spostata così all’Assemblea generale, di fronte alla risoluzione promossa dall’Austria, così come da altri Paesi come Belgio, Nuova Zelanda e Costa Rica. Ma il tentativo di divieto è ancora osteggiato dalle grandi potenze militari. “L’Italia? Ha mostrato il suo sostegno al lavoro svolto finora a Ginevra (ha anche votato a favore alla prima storica risoluzione, ndr), ma allo stesso tempo si sta anche unendo agli Stati Uniti nel resistere allo spostamento delle discussioni all’Assemblea generale, dove noi crediamo sarebbe molto più probabile arrivare a un trattato internazionale giuridicamente vincolante. Sarebbe fantastico se l’Italia fosse più proattiva e assumesse un ruolo di primo piano nel promuovere un trattato generale”, esorta Asaro. L’attenzione verso la campagna Stop Killer Robots non è mancata al Quirinale, considerato come i promotori del convegno, Asaro compreso, siano stati ricevuti dal presidente della Repubblica Sergio Mattarella lo scorso 8 ottobre. Ma il coraggio sembra mancare ancora alla politica.
Anche perché, come spiegato nel corso del convegno anche da Davide Del Monte, socio fondatore dell’associazione no profit Info.nodes e co-autore di “Man in the loop: ricerca e sviluppo dei sistemi d’arma autonomi in Italia“, gli interessi commerciali in gioco non mancano. “La vera tecnologia delle armi autonome oggi è in mano a Paesi come Stati Uniti, Russia, Israele, Turchia. L’Italia? Ancora ha fatto poco, ma Leonardo sta sviluppando progetti con Università come la Sapienza di Roma e il Politecnico di Milano: sostanzialmente si tratta di veicoli, sia di terra che aerei, come droni e non solo, senza pilota, che potranno muoversi, volare ed eseguire azioni anche belliche, senza la necessità di un intervento umano”. Ma qui c’è anche una riflessione da fare, secondo Del Monte: “Importanti centri universitari mettono di fatto a disposizione i propri migliori ricercatori per aiutare a realizzare queste tecnologie, con la prospettiva di una possibile futura assunzione dalla ‘Leonardo di turno’. Ma vogliamo davvero che chi si sta formando e studiando cominci a lavorare per costruire armi letali?”.
“È molto importante che scienziati e ricercatori che stanno sviluppando l’Intelligenza Artificiale capiscano che ottenere la regolamentazione di questi sistemi sia giusto e cruciale, soprattutto nel settore militare”, condivide Asaro. Anche perché, rivendica, “se non saranno regolamentati, questi sistemi militari saranno sviluppati con un livello di letalità sempre più alto. E potrebbero anche cadere nelle mani di attori non statali, organizzazioni terroristiche o tiranni che vogliono reprimere le proprie popolazioni. Quindi c’è molta preoccupazione su chi avrà il controllo su queste armi”. Per poi avvertire: “Stiamo rispettando davvero i diritti umani e il diritto internazionale in un momento in cui restiamo ad assistere a flagranti violazioni degli stessi?”.