L’Intelligenza Artificiale nella guerra di Israele ad Hamas

(di Germana Tappero Merlo)
22/05/24

Di Intelligenza Artificiale (IA) nella guerra in Gaza se n’è parlato parecchio alcuni mesi fa, all’indomani della pubblicazione dell’indagine dei siti di giornalismo investigativo +972 Magazine e Locall Call 1 circa l’impiego di sistemi di IA da parte dell’IDF. Il rapporto, redatto con testimonianze dirette interne all’intelligence e di militari israeliani, parla dell’uso di 3 sistemi di IA dedicati al targeting, ossia atti a confezionare killing lists attraverso l’elaborazione di un’enorme massa di dati al fine di geolocalizzare capi militari (Lavender e Where’s Daddy?), o anche solo affiliati ad Hamas e Jihad Islamica (JI), ed eventuali infrastrutture civili (Gospel) utilizzate come covi e/o depositi di armi. Dati raccolti per anni attraverso i sistemi di controllo di massa israeliani2 (riconoscimento facciale e sorveglianza biometrica), poi estratti ed analizzati da tecnici militari, start-up private e conglomerati tecnologici globali (Google Image e Meta)3, in una stretta collaborazione fra pubblico e privato secondo una logica globale di sicurezza ebraica che, comunque, e non per limiti di intelligence interna e militare, ha fallito nell’evitare i massacri del 7 ottobre scorso.

I vantaggi dei tre sistemi evidenziati dall’indagine giornalistica, ossia Lavender, Gospel e Where’s Daddy?, sono stati chiari fin da subito: la velocità nell’elaborazione di un’enorme massa di dati personali (telefoni e social media), da cui l’assegnazione di un punteggio di pericolosità da 1 a 100 ad ogni singolo maschio palestinese; l’individuazione fisica esatta del soggetto attraverso intercettazioni, triangolazioni di celle telefoniche, droni e sensori; a cui è seguita la velocità nell’autorizzare l’attacco, ossia in non più di 20 secondi dall’identificazione dell’obiettivo e della sua ubicazione, con uno scarto minimo di errore (riconosciuto ufficialmente del 10%), inteso come il rischio di colpire un soggetto “insignificante” nella scala operativa o addirittura “senza connessione diretta” con Hamas o Jihad Islamica. Puro calcolo algoritmico seppur con elevati danni collaterali (uccisione di civili, soprattutto mogli e figli, o soggetti estranei alle organizzazioni terroristiche) perché nell’impiego di Lavender & soci sono stati volutamente abbassati i parametri di designazione di “obiettivo umano”, al punto che l’IA, impiegata inizialmente, ha contrassegnato automaticamente circa 37mila maschi palestinesi come sospetti “militanti di Hamas”. E una volta che scatta l’automaticità, attraverso le triangolazioni di cellulari, le amicizie e le frequentazioni, oltre alle informazioni rilevate anche da droni di sorveglianza, la compilazione di obiettivi per l’IA “impazzisce”, letteralmente, generando e moltiplicando più obiettivi al giorno di quanto il personale umano possa produrre in un anno intero. In pratica, da 50 obiettivi all’anno individuati normalmente in precedenza dall’intelligence militare ebraica, con i 3 nuovi sistemi targeting IA, si è passati ai 100 al giorno. Il tutto, comunque, concertato con decisioni umane, perché è solo da esse che dipende dove si stabilisce l’asticella di chi è un agente terroristico di Hamas o di JI.

Inoltre, la decisione di chi colpire e di impiegare armi non sempre “intelligenti” (ossia missili non di precisione, sovente per una semplice questione economica) è stata consentita anche a ufficiali dell’IDF di grado inferiore rispetto a chi agiva in passato, quando venivano colpiti solo esponenti di spicco di Hamas e JI, selezionati attraverso un lungo e complesso processo di “incriminazione” gestito dagli alti comandi. Il problema rilevato in questi mesi è dato, infatti, da ciò che l’IA ha consentito fare ai militari di grado inferiore, ossia ha fornito loro una logica per essere più disattenti e per affermare un’agenda operativa che già avevano o di cui cercavano un pretesto per giustificare. In pratica, l’human-in-the-loop, ossia l’assicurazione che ogni decisione in ambito bellico che comporti l’eventuale uccisione del nemico sia presa da un essere umano, già entrata in crisi in precedenza in Ucraina per l’ampio uso di armi autonome4, nella guerra Israele-Hamas, in particolare, è stata abbondantemente superata o quantomeno messa in un angolo.

L’introduzione dell’IA per l’IDF non è comunque una novità dell’operazione attualmente in corso a Gaza: già dopo il conflitto di 11 giorni del maggio 2021, funzionari militari israeliani avevano affermato di aver combattuto la “prima guerra dell’IA” (AI war), con l’uso dell’apprendimento automatico e dell’informatica avanzata; fatto poi confermato anche negli eventi pubblici sull’impiego dell’IA e le nuove strategie di informazione dell’IDF5. La trasformazione digitale delle guerre, d’altronde, è da alcuni anni il fulcro del piano pluriennale (2020-2024) di Israele, il c.d. Tnufa (Momentum, in inglese) 6, introdotto proprio per la lotta ai gruppi terroristici, fra cui anche Hezbollah. Un piano di riforma che parte dalla convinzione che i dati (personali e fisici del terreno di scontro) e l’IA abbiano un ruolo importante per la vittoria nei conflitti futuri, grazie all’elaborazione di una massa di dati ottenuti da vari sensori, trasformati in informazioni intelligibili e consegnati dove devono andare, ossia all’intelligence militare.

Tnufa ha così dato enfasi all’invio rapido di informazioni alle unità in prima linea, alla creazione e sviluppo di nuove unità operative, come quella Multidimensionale, Unit 888 (o “Ghost”) e l’incorporazione di sistemi d’arma (fucili7 e ordigni esplosivi8) sviluppati da società di difesa israeliane e piattaforme (Carmel Program)9, tutti con impego di IA, integrando più strettamente le risorse navali, terrestri, aeree, informatiche e soprattutto di intelligence. In questo ambito, l’IA svolge un ruolo strategico nel coordinamento fra le unità ebraiche anche ora sul terreno di Gaza, oltre all’innegabile fatto che, come affermato dal Gen. Y. Grossman, “l’attrito crea dati”10. Insomma, un prosieguo di guerra che facilita maggior conoscenza dell’avversario e, quindi, con l’uso di IA, permette di progettare nuovi e più avanzati sistemi operativi e di intelligence.

Ma prima ancora di Israele e Ucraina, è stata la Turchia in Libia, nel 2020, con il drone Kargu-2 (foto), completamente autonomo, ad effettuare la prima operazione condotta da un sistema di IA durante un conflitto moderno: l’innovazione è stata data dal fatto che questo drone è in grado da solo di identificare e sopprimere bersagli umani. Si è trattato di uno fra i primissimi esempi di questa iperguerra (gen. J. Allen) o guerra algoritmica (R. Work, vicesegretario alla Difesa U.S.) che si sta definendo sui campi di battaglia, controllati sempre più da IA e decisamente meno da processi decisionali umani per via di una (presunta) elevata precisione, una assodata economicità nell’impiego di uomini e mezzi ma soprattutto per una indiscussa velocità di acquisizione e di trasmissione di dati.

L’intero processo operativo si sta, quindi, ingegnerizzando al punto tale che si sta concretizzando, realmente, ciò che N. Mulchandani, Chief technology officer della CIA, ha definito software defined warfare, ossia uno scenario in cui i software saranno parte dominante dei sistemi di combattimento di prossima generazione.

Insomma, un apporto determinante dell’IA all’intelligence, ricognizione e sorveglianza propri del C4ISR delle guerre di V generazione, là dove capacità avanzate di C4ISR forniscono un indubbio vantaggio strategico attraverso una più complessa consapevolezza situazionale, la conoscenza dell’avversario e dell’ambiente, con relativa riduzione dei tempi tra il rilevamento degli obiettivi e la risposta armata.

In pratica, è in atto – e le esperienze in Ucraina (foto seguente) e Gaza lo testimoniano – non solo un ritorno a guerre cinetiche più tradizionali ma anche una nuova rivoluzione negli affari militari che vede un gioco di squadra tra uomo e macchina ed una competizione algoritmica, dove però il rischio è dato da un processo delle informazioni esclusivamente tramite IA. Inoltre, ciò che si prospetta in un futuro molto prossimo è la combinazione Manned-Unmanned Teaming, MUM-T, che riassume l’idea di cooperazione tra sistemi a guida umana e quelli a guida autonoma, in un’azione coordinata, dove l’IA conterà quanto quella umana.

È poi un dato assodato nella storia militare che quando un sistema operativo innovativo entra a far parte del campo di battaglia può solo essere perfezionato, ma non viene certamente più accantonato: e dopo la polvere da sparo e il nucleare, l’IA rappresenta la nuova grande rivoluzione negli affari militari propria di questo secolo, dove la velocità di elaborazione e di trasmissione dei dati, ma soprattutto le potenzialità di iperconnessione e l’indipendenza energetica dei dispositivi in dotazione ai soldati, determinano l’asimmetria decisiva fra forze contrapposte.

Iperconnessione, quindi, e potente autosufficienza energetica: ecco le vere sfide dell’ambiente bellico futuro, con quanto ne deriva per gli Stati coinvolti, in termini di controllo di satelliti, di posizionamento e sicurezza dei cavi sottomarini (rilevazione e trasmissione dati), così come pure delle fonti energetiche (fondamentali per le batterie), con tutto ciò che ne consegue in termini di futura geopolitica, in questo caso, digitale.

In definitiva, dopo l’industrializzazione e l’informatizzazione dei campi di battaglia propri dei secoli e dei decenni passati, quella che si prospetta per il XXI secolo, e rivelatasi già con le guerre in Libia (Kargu-2), Ucraina (sciami di droni) e ora in Gaza con Lavender e altri sistemi di targeting come primordiali testimoni, è una forma di intelligentizzazione dell’ambiente operativo bellico, al cui centro troviamo l’Intelligenza Artificiale, con i suoi processi di automazione cognitiva, estensione delle facoltà cognitive umane e la loro integrazione con sistemi cyber-fisici. Il passo successivo, infatti, non così lontano perché già in fieri, è dato dalle guerre cognitive, con l’apporto delle neuroscienze e delle neurotecnologie progettate e proiettate verso il cervello umano dell’avversario inteso come il più moderno campo di battaglia11 e, quindi, propulsore di una nuova era bellica, sebbene questa sia, al momento, tutta un’altra storia.

2 Non da meno Hamas ha spiato la popolazione palestinese al fine di classificarla per attività politiche, post sui social e addirittura scelte sentimentali.

https://www.nytimes.com/2024/05/13/world/europe/secret-hamas-files-pales...

4 A. Deruda, Geopolitica digitale. La competizione globale per il controllo della Rete, Carocci ed., 2024, p. 116.