Nel libro Davanti al dolore degli altri, Susan Sontang ricorda che il bombardamento della città basca di Guernica ad opera dei nazisti nel 1936 – reso immortale dall’omonima opera di Picasso – indicato storicamente come avvio dei moderni bombardamenti aerei sui civili come target di guerra – che poi sarebbe continuato nella Seconda guerra mondiale, da Coventry a Dresda, da Hiroshima a Nagasaki, e in tutte le guerre successive – aveva avuto dei precedenti, non tanto nei teatri europei della Prima guerra mondiale, quanto nelle colonie europee.
Soprattutto a cura degli inglesi: “tra il 1920 e il 1924, la Royal Air Force, da poco istituita, bersagliò sistematicamente i villaggi iracheni” – nel territorio che aveva ricevuto come bottino di guerra, insieme alla Palestina, dallo smembramento dell’impero ottomano sconfitto nella Grande guerra – “in cui i ribelli potevano trovare rifugio con raid ‘portati avanti ininterrottamente, giorno e note, su case, abitanti, raccolti e bestiame’, secondo la tattica delineata da un tenente colonnello della RAF”. Ma l’opinione pubblica non inorridì, come accadde per la guerra civile spagnola, perché le stragi di civili non accadevano in Europa, non erano documentate, non morivano sotto le bombe cittadini europei, i cui governi “civili”, anzi, ne erano i carnefici.
Mi sono tornate in mente queste pagine di denuncia sull’ipocrisia del dolore, sul doppio standard morale, sull’ineguale “dignità di lutto” – per dirla con un’altra autrice statunitense, ed ebrea come Sontang, Judith Butler – oggi che dopo sei mesi di bombardamenti ininterrotti su Gaza da quel maledetto 7 ottobre 2023, il dolore israeliano per 1200 vittime inermi e 250 ostaggi è stato moltiplicato (ad oggi) per 30 volte con il dolore per le inermi vittime palestinesi, che supera in orrore perfino la logica veterotestamentaria della vendetta (“occhio per occhio”), nella quale è stabilito un principio di proporzionalità della violenza di gran lunga superato. Eppure – mentre continua la reiterazione mediatica della visione delle vittime di Hamas del 7 ottobre – questa massa enorme di vittime palestinesi del “civile” governo israeliano, alle quali si aggiungono gli operatori delle Nazioni Unite (170, circa) e delle ONG (le ultime sono le 7 vittime internazionali del World central kitchen), non le vediamo, sono sottratte al nostro sguardo: possiamo solo immaginare ammassi di corpi straziati nascosti dietro il numero abnorme, crescente settimana dopo settimana. Soprattutto dopo la messa fuori legge di Al Jazeera, l’unico media presente sul campo, che ha avuto decine di morti tra gli operatori, perché racconta da un punto di vista situato tra le vittime.
Ma mentre questo programma di IA è usato per contrassegnare come obiettivi edifici e strutture dalle quali secondo l’esercito operano i militanti di Hamas, la seconda inchiesta, pubblicata il 3 aprile 2024 (e ripresa in italiano dal il manifesto, 5 aprile 2024), ha rivelato l’esistenza di un altro programma di intelligenza artificiale, chiamato Lavender (Lavanda), che produce a getto continuo liste di palestinesi da sopprimere. Non durante le battaglie, ma bombardandolo in casa, di notte, con le rispettive famiglie e quelle dei vicini. “L’esercito ha deciso che, per ogni giovane agente di Hamas segnalato da Lavender, era consentito uccidere fino a 15 o 20 civili. (…). Nel caso in cui l’obiettivo fosse un alto funzionario di Hamas con il grado di comandante di battaglione o di brigata, l’esercito ha autorizzato in più occasioni l’uccisione di più di 100 civili nell’assassinio di un solo comandante”. Inseriti alcuni criteri minimi e generici nel programma per “riconoscere” presunti affiliati ad Hamas, “fonti hanno affermato che se Lavender avesse deciso che un individuo era un militante di Hamas, gli sarebbe stato essenzialmente chiesto di trattarlo come un ordine, senza alcun obbligo di verificare in modo indipendente il motivo per cui la macchina aveva fatto quella scelta o di esaminare i dati grezzi di intelligence su cui si è basata”. Con tutte le “vittime collaterali” conseguenti, in produzione seriale.
Siamo al totale disimpegno morale della componente umana e della sua intelligenza emotiva: all’IA è demandata la generazione continua di liste dei sommersi, senza salvati tra coloro che gli stanno vicino. I carnefici, a tutti i livelli, diventano meri esecutori di un crimine di massa, guidato dalla macchina. Una nuova forma, artificiale, di “banalità del male”. Una distopia, tecnologica e realizzata – contro la quale, tra le altre cose, si battono gli studenti che nelle università chiedono l’annullamento di contratti che prevedano accordi di ricerca tecnologica a fini bellici – che, mentre moltiplica e nasconde le vittime, fa impallidire sia Guernica quanto a numero di morti che le distopie futuristiche di Black Mirror.