Perché leggere questo articolo? Un’inchiesta di un testata israelo-palestinese ha raccontato al mondo di Lavender, il sistema di IA con cui Israele bombarda Gaza. Dopo più di 30mila vittime civili accertate è difficile parlare di “intelligenza” dietro le bombe. Infatti, gli 007 americani riportano che oltre la metà non sono di precisione.
Lavender, che in inglese poi sarebbe “lavanda”. Un fiore affusolato e profumato, da cassapanca non certo da funerale. E, invece, Lavender è il nome del sistema di Intelligenza Artificiale con cui Israele bombarda Gaza. Lo rivela +972, un magazine d’inchiesta israelo-palestinese, che per primo ha parlato dello strumento in mano all’IDF per colpire obiettivi nella Striscia. Peccato che, come sempre, le bombe sono tutt’altro che intelligenti.
Lavender, l’IA applicata alle bombe
Il sistema Lavender è stato sviluppato con l’obiettivo di poter individuare i sospetti operativi (di qualsiasi rango) di Hamas che dellaJihad islamica palestinese, così da poter attuare bombardamenti mirati. Secondo le fonti consultate da +972 l’esercito israeliano, soprattutto durante le prime settimane della guerra, ha fatto un uso estensivo dei risultati forniti da Lavender: in totale, circa trentasettemila palestinesi sarebbero stati designati come sospetti militanti per possibili attacchi aerei o missilistici.
Il report di +972, condotto assieme al giornale di lingua ebraica Local Call e riportato dal Guardian, si basa sulle testimonianze dirette di sei membri dei servizi segreti israeliani, conosciuti come unità 8200, che hanno sviluppato e usato Lavender. Secondo il racconto, gli operatori impiegano 20 secondi per approvare ogni obiettivo indicato dal sistema di intelligenza artificiale. In particolare, Lavender è stato usato per identificare target considerati di “basso rango”.
L’uso di Lavender, inoltre, avrebbe modificato i processi di autorizzazione all’attacco, specie nel caso delle vittime civili ritenute “accettabili”. Secondo quanto riferito dal Guardian, prima dell’attacco di Hamas del 7 ottobre, l’identificazione degli obiettivi richiedeva l’approvazione di un consulente legale, prima di poter ordinare l’attacco. Dopo, a detta delle fonti, l’esercito israeliano ha allentato questo sistema, usando pre-autorizzazioni e chiedendo un flusso continuo di obiettivi. Le fonti sentite da +972 hanno raccontato di aver subito una pressione costante: “Ci dicevano: ora dobbiamo distruggere Hamas, a qualunque costo. Bombardate tutto quello che potete”.
Guerra, intelligenza artificiale e bombe mure
Forme e modi dell’impiego dell’Intelligenza Artificiale in un contesto bellico sono oggi una questione di primaria importanza all’interno del dibattito pubblico. Una delle fonti contattate dalla testata israelo-palestinese ha dichiarato che il personale umano spesso serviva soltanto come “timbro di approvazione” per le decisioni prese dalla macchina, spendendo solo “venti secondi” per la verifica dell’idoneità del bersaglio attraverso l’utilizzo della discriminante del sesso dello stesso, poiché le strutture militari di Hamas e della Jihad Islamica Palestinese sono composte esclusivamente da individui di sesso maschile.
Fonti dell’IDF hanno spiegato che l’esercito di Tel Aviv fa ricorso alle cosiddette bombe “mute”, cioè munizioni non intelligenti e non guidate, che causano un alto numero di vittime innocenti, perché puntano a distruggere completamente gli edifici in cui potrebbero trovarsi gli obiettivi militari.
Israele ammette gli errori, solo in parte
La fonte con più esperienza tra quelle che hanno accettato di parlare con +972 afferma che Lavender “si è dimostrato valido. C’è qualcosa nell’approccio statistico che ti impone una certa norma e un certo standard. C’è stata una quantità sorprendente di bombardamenti in questa operazione. A mia memoria, non ha precedenti. Ho molta più fiducia in un meccanismo statistico che in un soldato che ha perso un amico due giorni fa. Tutti, me compreso, hanno perso delle persone il 7 ottobre. La macchina è in grado di farlo freddamente. E questo ha reso tutto più facile”. Tutto ciò nonostante sia noto il fatto che il sistema commetta “errori” in circa un caso su dieci, contrassegnando occasionalmente individui che hanno solo un legame debole con i gruppi militanti, se non addirittura nessun legame.
Ma Lavender non è l’unico strumento AI-based di cui le forze armate israeliane si avvalgono nel contesto di “Iron Sword”. Accanto ad esso possiamo trovare anche “Gospel”, un programma che anziché individuare possibili individui come bersagli suggerisce quali siano gli edifici e le strutture all’interno delle quali operano i militanti islamisti, e “Where’s Daddy?”, che ha un funzionamento complementare a quello di Lavender: mentre quest’ultimo individua possibili bersagli per attacchi, il primo permette di sapere quando gli individui selezionati si trovano nelle loro residenze familiari, considerate un bersaglio più facile da attaccare rispetto ad altre tipologie di strutture. Anche in questo caso, l’informazione deve essere verificata da un operatore umano.
Ok Lavender, ma le bombe sono tutt’altro che intelligenti
Secondo i dati delle Nazioni Unite, solo nel primo mese di guerra 1.340 famiglie palestinesi hanno subito perdite multiple. Si contano 312 famiglie che hanno perso più di 10 membri. Negli ultimi sei mesi sono state uccise più di 33mila persone, quasi quante quelle identificate da Lavander come obiettivi militari, ma di queste più di 12mila erano minori. Oltre a loro, Israele ha ucciso anche 95 giornalisti, secondo i dati del Comittee to protect journalist, e almeno 196 operatori umanitari, come riporta la Bbc. Gli esperti di diritto internazionale intervistati dal Guardian sul tema hanno criticato il sistema di pre-autorizzazioni usato da Israele, sostenendo che i militari debbano valutare la proporzionalità per ogni singolo attacco e di non aver mai sentito parlare di un rapporto di uno a 15 o più come accettabile, specialmente per i combattenti di basso livello.