Un target ogni 20 secondi. Il tempo di verificare sulla kill list che il bersaglio proposto dal computer fosse un uomo e non una donna e poi bastava un click per dare il “timbro di approvazione”. Così funziona il sistema basato su intelligenza artificiale sviluppato dall’esercito israeliano per automatizzare la ricerca e selezione degli obiettivi da colpire, noto come Lavender. Lo ha svelato un’inchiesta di +972 Magazine e Local Call, pubblicata in italiano dal manifesto. Una macchina da guerra in grado di velocizzare notevolmente il processo autorizzativo dei bombardamenti, ma che ha un difetto rilevante: si sbaglia almeno una volta su 10. Una percentuale non irrilevante quando si parla della Striscia di Gaza, dove Lavender dall’inizio dell’offensiva israeliana di risposta al massacro di Hamas del 7 ottobre avrebbe individuato circa 37mila obiettivi, spesso famiglie con più di una persona. E questo 10% di margine di errore sarebbe anche una delle spiegazioni del numero così alto di vittime civili prodotte dalla guerra a Gaza, che in sei mesi hanno superato le 33mila.
L’inchiesta, firmata da Yuval Abraham, si basa sulle rivelazioni inedite di sei ufficiali di intelligence israeliani, sotto anonimato, che hanno tutti servito nell’esercito durante la guerra attuale e hanno usato direttamente il sistema di IA per generare obiettivi da colpire. Lavender, che non è l’unico software usato dall’Idf per guidare le sue armi (a dicembre è stata rivelata l’esistenza di un altro sistema), ha giocato un ruolo centrale soprattutto durante le fasi iniziali della guerra, quando il tasso di vittime collaterali è stato più alto.
Il software sarebbe stato sviluppato dalla divisione di intelligence d’élite delle forze di difesa israeliane, l’unità 8200. Come tutte le IA, è stato addestrato a “riconoscere”, dentro le migliaia di dati forniti dai droni e dalle intercettazioni telefoniche, comportamenti e individui presumibilmente legati ad Hamas o alla Jihad islamica. Con una velocità e una “freddezza” di gran lunga superiori a quelle degli operatori umani che finora avevano gestito i sistemi d’arma. Secondo le fonti, la macchina assegna ogni abitante di Gaza un punteggio da 1 a 100, in base alla probabilità che sia un miliziano. Come detto, con un margine di errore verificato del 10%.
Ma l’intelligenza artificiale, ovviamente, non fa tutto da sola. L’effetto mortifero di Lavender sarebbe stato amplificato dal fatto che l’Idf avrebbe allentato le regole per evitare le vittime collaterali, con gli ufficiali che hanno finito per dare per buoni la maggior parte dei suggerimenti che gli venivano dal computer, senza verificare l’affidabilità delle proposte di bersaglio.
Per alcune tipologie di obiettivi, hanno spiegato le fonti di 972, le forze israeliane hanno applicato quote pre-autorizzate di “vittime collaterali consentite” con una ratio pari a 15 o 20 civili sacrificabili per ogni miliziano di Hamas o Jihad islamica, anche se “di basso rango”, che secondo le regole precedenti non giustificavano l’approvazione di un raid. A differenza dell’altro sistema The Gospel (addestrato a riconoscere le strutture militari), infatti, Lavender è specializzato nel prendere di mira i soggetti quando si trovano nelle loro case, potenzialmente con tutta la famiglia, perché i raid contro questi obiettivi vengono considerati più semplici ed efficienti. Una delle sue attività di ricerca più ricorrenti, infatti, è stata soprannominata dai militari israeliani Where is daddy?, ossia “dov’è papà?”.
“È il Sacro Graal. Una volta che passi all’automazione, la generazione degli obiettivi diventa una follia”. Le fonti anonime hanno spiegato che l’uso sistematico di Lavander, che in precedenza era utilizzato solo come strumento ausiliario, è stata concessa circa due settimane dopo l’inizio della guerra. “All’inizio facevamo controlli per assicurarci che la macchina non si confondesse – dice una fonte di -. Ma a un certo punto ci siamo affidati al sistema automatico e controllavamo solo che l’obiettivo fosse un uomo. Ci ha fatto risparmiare molto tempo”.
In una dichiarazione a +972 e Local Call, il portavoce delle Idf ha negato l’uso dell’intelligenza artificiale per individuare obiettivi, affermando che si tratta semplicemente di “strumenti ausiliari che assistono gli ufficiali nel processo di incriminazione”. E ha aggiunto che “in ogni caso, è richiesto un esame indipendente da parte di un analista dell’intelligence, che verifica che gli obiettivi identificati siano legittimi per l’attacco in conformità con le condizioni stabilite nelle direttive delle Idf e nel diritto internazionale”.
I racconti raccolti da +972 Mag restituiscono l’idea di una prassi diversa. “Tutti abbiamo perso qualcuno il 7 ottobre. La macchina ha reso le cose più facili”, ha argomentato un funzionario dell’Idf, sottolineando che i militari hanno preferito affidarsi a “un meccanismo statistico” piuttosto che, potenzialmente, a un soldato che stava ancora elaborando il lutto per un parente ucciso il 7 ottobre. Un altro spiega: “Impiegavo 20 secondi per ogni obiettivo e ne facevo decine ogni giorno. Non avevo alcun valore aggiunto come umano, se non quello di dare un timbro di approvazione. Ho risparmiato un sacco di tempo”. “Nel sistema gli obiettivi non finivano mai, anche quando rifiutavamo un obiettivo il sistema ne proponeva subito un altro”.
Un altro funzionario militare israeliano illustra un errore comune del meccanismo: “Se l’obiettivo di Hamas dava il telefono al figlio, al fratello maggiore o a qualunque altro uomo, quella persona sarebbe stata bombardata nella sua casa con la sua famiglia. Questo accadeva spesso. La maggior parte degli errori causati da Lavender erano di questo tipo”. Un altro militare sotto anonimato ha raccontato che ad aggravare il bilancio c’è anche il fatto che Israele stia impiegando sul campo di preferenza dumb bomb, ossia bombe non intelligenti, perché più disponibili nel suo arsenale.