Questa settimana sette operatori umanitari della World Central Kitchen (WCK) sono stati tragicamente uccisi in un attacco aereo israeliano mentre consegnavano cibo a Gaza. Il gruppo era composto da cittadini britannici, un australiano, un polacco e un palestinese. Non è la prima volta che operatori umanitari vengono uccisi durante un conflitto, alla fine di marzo a Gaza ne erano già morti 196. Ma il modo in cui i sette in questione sono stati uccisi, annientati da razzi israeliani mentre alla guida di due furgoncini, ha fatto pensare che l’errore commesso, e di cui anche il presidente Netanyahu ha ammesso la responsabilità, non fosse stato umano ma algoritmico.
Da quando è scoppiata la guerra, l’alleato principale dell’esercito israeliano è l’intelligenza artificiale. La stretta cooperazione tra militari e macchine ha modificato il modo di fare la guerra, una metamorfosi alla quale contribuiscono nuove tattiche belliche: l’assassinio di tutti i membri di Hamas e della Jihad islamica palestinese per porre fine a questa organizzazione terrorista attraverso lo sterminio; il primato di AI sull’intelligence umano; la rimozione della responsabilità per il danno collaterale. Detti così questi principi suonano pericolosamente simili ai postulati del terrorismo classico: assassinii mirati dei responsabili dello Stato; selezione degli obiettivi scientifica, basata su analisi politiche al fine di incutere il massimo della paura; disinteresse riguardo al danno collaterale e cioè le vittime civili.
La contaminazione delle tattiche della lotta armata nello stato è un fenomeno di lunga data. Nessun paese è stato in grado di combattere il terrorismo in casa e fuori senza alterare le regole della guerra giusta o quelle dell’ordine pubblico. Data la natura ‘atipica’ di questo fenomeno ci si è dovuti adattare e così facendo si sono ritoccati i principi etici della guerra e della giustizia. L’ingresso sul palcoscenico dei conflitti dell’intelligenza artificiale ha potenziato questi fenomeni, in quello di Gaza si è arrivati ad attribuire alle macchine un’obbiettività superiore ed estranea all’uomo. Ciò spiega perché diversi soldati israeliani sono convinti che sistemi di intelligenza artificiale come Lavender e Where is Daddy abbiano permesso di neutralizzare il trauma prodotto dai fatti dell’7 ottobre. In altre parole, AI ha rimosso loro senso di vendetta.
Senza soffermarci sul significato di queste parole e senza dover ricordare che le guerre si combattono tra nemici e la vendetta è spesso una leva propagandistica importante, soffermiamoci sull’effetto immediato della guerra degli algoritmi sul danno collaterale.
Lavender è un sistema di database che individua gli obiettivi di guerra, principalmente umani. L’elemento discriminatorio è l’appartenenza ad Hamas o alla Jihad islamica palestinese. Lavender è costruito per selezionare non solo i capi di Hamas ma anche le giovani reclute o chiunque ne sia associato. Where is Daddy invece è un sistema che seleziona la posizione geografica degli obiettivi umani, l’elemento discriminatorio è l’abitazione familiare. La combinazione dei due sistemi produce attacchi mirati sulle case dei membri di Hamas e della Jihad islamica palestinese spesso la notte quando le famiglie dormono.
Il danno collaterale, e cioè quante persone si uccideranno per far fuori l’individuo o gli individui selezionati da Lavender e Where is Daddy, non è più un deterrente per sferrare l’attacco. I motivi sono diversi, tra cui il tempo necessario per prendere una decisione a riguardo, AI ragiona molto più velocemente del cervello umano. E così a Gaza nei mesi scorsi non si è esitato ad uccidere 100 persone per colpire un singolo comandante di Hamas mentre in passato il massimo accettabile era 30, limite applicato all’assassinio di Osama bin Laden.
C’è un altro elemento che influenza il danno collaterale: il costo delle armi intelligenti. I missili ad alta precisione, definiti smart, e cioè intelligenti, costano molto di più di quelli unguided, comunemente chiamati stupidi perché fanno molti più danni. I primi sono riservati per i grandi capi di Hamas, perché vale la pena spendere di più per assicurarsi che vengano colpiti, i secondi sono per la manovalanza. E così per far fuori un membro junior di Hamas si arriva anche a buttare giù un palazzo intero.
Come gran parte delle intelligenze artificiali, Lavender è un sistema che impara sul campo: più uccide più diventa intelligente. Ma non è infallibile. Esiste un margine di errore del 10 per cento, alto, troppo alto. Ciò significa che sulle 37mila vittime di Gaza, 3.700 non avevano nulla a che fare con Hamas o con la Jihad islamica palestinese, sono il danno collaterale dell’errore dell’algoritmo. Tra queste c’erano i sette operatori umanitari saltati in aria questa settimana.
Il terrorismo non prende assolutamente in considerazione il danno collaterale. L’obiettivo è annientare lo stato, se per farlo bisogna decimare la popolazione civile, che ben venga poiché il gioco vale la candela. Il terrorismo può permettersi di ignorare il danno collaterale perché deumanizza l’individuo, anche il nazismo fece la stessa cosa. A Gaza il connubio tra AI e l’esercito israeliano rischia di ricreare proprio questa aberrazione.