Obiettivi da colpire affidati da Israele all’intelligenza artificiale, precauzioni sulla popolazione palestinese ignorate, margini di errore del 10% accettati come ‘danno collaterale‘. E, di conseguenza, un numero di vittime civili innocenti senza precedenti nei raid a Gaza. Questo il racconto del cronista israeliano Meron Rapoport, editorialista della rivista online israelo-palestinese +972 Magazine e direttore del sito gemello in lingua ebraica, Local Call, nel corso del convegno a Roma “Intelligenza delle macchine e follia della guerra: le armi letali autonome”. Un’iniziativa organizzata da Archivio Disarmo e da Rete italiana pace e disarmo, alla quale ha partecipato anche Peter Asaro, numero due della campagna “Stop killer robots” che chiede l’approvazione, alla sessione di ottobre dell’Assemblea generale delle Nazioni Unite, di una risoluzione che stoppi o quantomeno freni e regoli l’uso delle armi autonome.
Rapoport ha raccontato l’inchiesta condotta da +972, firmata da Yuval Abraham, che si basa sulle rivelazioni inedite di sei ufficiali di intelligence israeliani, sotto anonimato, che hanno tutti servito nell’esercito durante la guerra attuale e hanno usato direttamente il sistema di IA per generare obiettivi da colpire. Un software denominato “Lavender” (non è stato l’unico usato dall’Idf per guidare le sue armi, dato che lo scorso dicembre è stata rivelata l’esistenza di un altro sistema), che ha giocato un ruolo centrale soprattutto durante le fasi iniziali della guerra, quando il tasso di vittime collaterali è stato più alto. E che, come ha rivendicato nel corso del convegno anche Safwat Al Kahlout, corrispondente palestinese di Al Jazeera a Gaza fino allo scorso aprile, ha spiegato il perché di un numero così alto di vittime civili nel corso degli attacchi a Gaza.
Il sistema può elaborare target ogni 20 secondi. Il tempo di verificare sulla kill list che il bersaglio proposto dal computer sia un uomo e non una donna, poi bastava un click per dare il “timbro di approvazione”. Così funziona il sistema noto come Lavender. In pratica, una macchina da guerra in grado di velocizzare notevolmente il processo autorizzativo dei bombardamenti, ma con un difetto rilevante: si sbaglia almeno una volta su 10. “Così, sulla base di caratteristiche di miliziani conosciuti, è stata elaborata una lista di 37mila obiettivi, ma Israele ha accettato un margine di errore molto alto, del 10%. E, almeno nei primi mesi, i controlli erano minimi, era un sistema quasi automatico”, ha precisato Rapoport.
“Quando non sapevamo ancora di questa inchiesta eravamo sorpresi per questo numero di vittime così alto, poi abbiamo capito. Questa tecnologia è stata usata secondo noi per commettere più genocidi e costringere i palestinesi a lasciare Gaza“, ha spiegato Safwat Al Kahlout. E ancora: “A Gaza non c’è corrente. Ci sono dei privati che portano dei pannelli solari. Tante volte Israele ha colpito questi pannelli, con la popolazione in fila per la ricarica dei cellulari, perché uno di questi smartphone apparteneva a ricercati compresi nella lista elaborata con l’IA”, ha aggiunto il cronista di Al Jazeera, che oggi si trova in Italia dopo aver lasciato la Striscia di Gaza ad aprile.
“Non possiamo dimenticare come queste armi autonome siano utilizzate anche per colpire erroneamente obiettivi civili”, ha aggiunto anche Tina Marinari, di Amnesty International Italia. “Abbiamo diffuso un rapporto dal nome Apartheid automatizzato, dove si spiega come in Cisgiordania ci sia una telecamera ogni 5 metri. Così si crea anche un aspetto di terrore psicologico, dato che lì i militari possono arrestare dieci persone anche se queste si riuniscono all’aperto per parlare, perché l’esercito può pensare che stanno minando in qualche modo la sicurezza di Israele. Pensate se queste coordinate, queste indicazioni, siano nelle mani di un’arma autonoma. E, nel caso venga commesso un errore, di chi è poi la responsabilità?”, ha concluso Marinari.
Articolo Precedente

Usa, Trump vuole “l’operazione Aurora”: deportazioni di massa e pena di morte per gli immigrati che uccidono cittadini americani

next