Nel libro Davanti al dolore degli altri, Susan Sontag ricorda che il bombardamento della città basca di Guernica ad opera dei nazisti nel 1937 – reso immortale dall’omonima opera di Picasso – indicato storicamente come avvio dei moderni bombardamenti aerei sui civili come target di guerra – che poi sarebbe continuato nella Seconda guerra mondiale, da Coventry a Dresda, da Hiroshima a Nagasaki, e in tutte le guerre successive – aveva avuto dei precedenti, non tanto nei teatri europei della Prima guerra mondiale, quanto nelle colonie europee. Soprattutto a cura degli inglesi: “Tra il 1920 e il 1924, la Royal Air Force, da poco istituita, bersagliò sistematicamente i villaggi iracheni – nel territorio che aveva ricevuto come bottino di guerra, insieme alla Palestina, dallo smembramento dell’impero ottomano sconfitto nella Grande guerra – in cui i ribelli potevano trovare rifugio con raid ‘portati avanti ininterrottamente, giorno e notte, su case, abitanti, raccolti e bestiame’, secondo la tattica delineata da un tenente colonnello della Raf”. Ma l’opinione pubblica non inorridì, come accadde per la guerra civile spagnola, perché le stragi di civili non accadevano in Europa, non erano documentate, non morivano sotto le bombe cittadini europei, i cui governi “civili”, anzi, ne erano i carnefici.
Mi sono tornate in mente queste pagine di denuncia sull’ipocrisia del dolore, sul doppio standard morale, sull’ineguale “dignità di lutto” – per dirla con un’altra autrice statunitense, ed ebrea come Sontag, Judith Butler – oggi che, dopo sei mesi di bombardamenti ininterrotti su Gaza da quel maledetto 7 ottobre 2023, il dolore israeliano per 1200 vittime inermi e 250 ostaggi è stato moltiplicato (ad oggi) per 30 volte con il dolore per le inermi vittime palestinesi, che supera in orrore perfino la logica veterotestamentaria della vendetta (“occhio per occhio”), nella quale è stabilito un principio di proporzionalità della violenza di gran lunga superato. Eppure – mentre continua la reiterazione mediatica della visione delle vittime di Hamas del 7 ottobre – questa massa enorme di vittime palestinesi del “civile” governo israeliano, alle quali si aggiungono gli operatori delle Nazioni Unite (170, circa) e delle Ong (le ultime sono le 7 vittime internazionali del World central kitchen), non le vediamo, sono sottratte al nostro sguardo: possiamo solo immaginare ammassi di corpi straziati nascosti dietro il numero abnorme, crescente settimana dopo settimana. Soprattutto dopo la messa fuorilegge di Al Jazeera, l’unico media presente sul campo, che ha avuto decine di morti tra gli operatori, perché racconta da un punto di vista situato tra le vittime.
Come sia possibile questo altissimo numero di vittime civili, compresi i bambini, questa carneficina continua che non accenna a fermarsi, in un così breve lasso di tempo lo ha rivelato il giornalista Yuval Abram in due inchieste successive, pubblicate sulle testate indipendenti israeliane +972 e Local Call, svelando che questa “fabbrica di omicidi di massa” è guidata da programmi di intelligenza artificiale. La prima inchiesta, pubblicata il 30 novembre 2023 (e ripresa in italiano da Internazionale, 15-21 dicembre 2023), ha rivelato attraverso fonti di intelligence che “niente accade per caso. Quando una bambina di 3 anni viene uccisa in una casa a Gaza, è perché qualcuno nell’esercito ha deciso che non era un grosso problema per lei essere uccisa, che era un prezzo che valeva la pena pagare per colpire un altro bersaglio. (…). Tutto è intenzionale. Sappiamo esattamente quanti danni collaterali ci sono in ogni casa”. Questo accade attraverso “l’uso diffuso di un sistema chiamato Habsora (Vangelo), che si basa in gran parte sull’intelligenza artificiale e può generare obiettivi quasi automaticamente a una velocità che supera di gran lunga quanto era possibile in precedenza”.
Ma mentre questo programma di IA è usato per contrassegnare come obiettivi edifici e strutture dalle quali secondo l’esercito operano i militanti di Hamas, la seconda inchiesta, pubblicata il 3 aprile 2024 (e ripresa in italiano dal manifesto, 5 aprile 2024), ha rivelato l’esistenza di un altro programma di intelligenza artificiale, chiamato Lavender (Lavanda), che produce a getto continuo liste di palestinesi da sopprimere. Non durante le battaglie, ma bombardando in casa, di notte, con le rispettive famiglie e quelle dei vicini. “L’esercito ha deciso che, per ogni giovane agente di Hamas segnalato da Lavender, era consentito uccidere fino a 15 o 20 civili. (…). Nel caso in cui l’obiettivo fosse un alto funzionario di Hamas con il grado di comandante di battaglione o di brigata, l’esercito ha autorizzato in più occasioni l’uccisione di più di 100 civili nell’assassinio di un solo comandante”. Inseriti alcuni criteri minimi e generici nel programma per “riconoscere” presunti affiliati ad Hamas, “fonti hanno affermato che se Lavender avesse deciso che un individuo era un militante di Hamas, gli sarebbe stato essenzialmente chiesto di trattarlo come un ordine, senza alcun obbligo di verificare in modo indipendente il motivo per cui la macchina aveva fatto quella scelta o di esaminare i dati grezzi di intelligence su cui si è basata”. Con tutte le “vittime collaterali” conseguenti, in produzione seriale.
Siamo al totale disimpegno morale della componente umana e della sua intelligenza emotiva: all’IA è demandata la generazione continua di liste dei sommersi, senza salvati tra coloro che gli stanno vicino. I carnefici, a tutti i livelli, diventano meri esecutori di un crimine di massa, guidato dalla macchina. Una nuova forma, artificiale, di “banalità del male”. Una distopia, tecnologica e realizzata – contro la quale, tra le altre cose, si battono gli studenti che nelle università chiedono l’annullamento di contratti che prevedano accordi di ricerca tecnologica a fini bellici – che, mentre moltiplica e nasconde le vittime, fa impallidire sia Guernica quanto a numero di morti sia le distopie futuristiche di Black Mirror.