Intelligenza Artificiale e Conflitto: Il Ruolo di Lavender nelle Operazioni Militari Israeliane
In un contesto tecnologico sempre più avanzato, le strategie militari si evolvono, integrando soluzioni innovative che pongono nuove questioni etiche e legali. Tra queste, spicca l’utilizzo del sistema di intelligenza artificiale Lavender da parte di Israele, un’applicazione che ha sollevato polemiche per il suo impiego nel conflitto con i palestinesi. Secondo quanto riportato da fonti indipendenti tra cui la rivista israelo-palestinese +972, Lavender ha contrassegnato oltre 37mila palestinesi come obiettivi militari, operando con una supervisione umana limitata e seguendo criteri di selezione degli obiettivi che hanno portato a numerose vittime innocenti.
Le testimonianze di sei membri dei servizi segreti israeliani, appartenenti all’unità 8200, svelano come Lavender sia stato utilizzato per incrociare dati e identificare persone ritenute vicine alle milizie palestinesi. Tuttavia, le fonti chiariscono che molti degli individui selezionati non erano miliziani confermati, bensì semplici sospetti, il che ha condotto a decisioni di bombardamento con effetti devastanti anche sulla popolazione civile. Un’ulteriore preoccupazione emergente riguarda il processo decisionale per l’autorizzazione degli attacchi, che stabilisce come accettabile un numero significativo di vittime collaterali.
Cambiamenti nelle Procedure e Impacto Sulla Popolazione Civile
Il report di +972, condotto in collaborazione con Local Call e ripreso dal Guardian, evidenzia una riduzione delle precauzioni prese prima degli attacchi. Se precedentemente l’identificazione di un obiettivo richiedeva l’approvazione di un consulente legale, le politiche sembrano essersi allentate, permettendo attacchi basati su pre-autorizzazioni e richiedendo un flusso costante di nuovi obiettivi. Questa accelerazione nel processo decisionale si traduce in una pressione crescente sui servizi di intelligence: “Ci dicevano: ora dobbiamo distruggere Hamas, a qualunque costo. Bombardate tutto quello che potete”.
Un aspetto preoccupante dell’uso di Lavender è la scelta di armi per gli attacchi. Le cosiddette bombe “mute”, munizioni non guidate e non intelligenti, sono state preferite per colpire gli obiettivi, causando un alto numero di vittime innocenti. Un ufficiale dell’intelligence israeliana ha dichiarato a +972 che si preferisce non “sprecare bombe costose per persone non importanti”, indicando una strategia che mira alla distruzione totale delle strutture in cui potrebbero trovarsi gli obiettivi, senza distinzione tra combattenti e civili.
Il Costo Umano del Conflitto e la Critica Internazionale
Le conseguenze dell’impiego di Lavender e di strategie militari simili sono drammatiche. Secondo i dati forniti dalle Nazioni Unite, nel solo primo mese di guerra, 1.340 famiglie palestinesi hanno subito perdite multiple, con 312 famiglie che hanno perso più di 10 membri. In sei mesi, le vittime accertate ammontano a più di 33mila persone, un numero vicino a quello degli obiettivi identificati da Lavender come militari, ma tra queste oltre 12mila erano minori. Inoltre, secondo quanto riportato dal Committee to Protect Journalists e dalla BBC, sono stati uccisi anche 95 giornalisti e almeno 196 operatori umanitari.
Questi dati gettano una luce cruda sulle implicazioni etiche e legali dell’uso di tecnologie avanzate come l’intelligenza artificiale in contesti di guerra. La distinzione tra combattenti e non combattenti, un principio fondamentale del diritto internazionale umanitario, sembra essere messa in discussione dalle modalità operative che prevedono un elevato numero di vittime civili come danno collaterale “accettabile”. L’impiego di sistemi come Lavender solleva interrogativi urgenti sulla responsabilità e sulla necessità di un maggior controllo e supervisione umana nelle decisioni di vita o di morte.
Il dibattito su queste tematiche è più vivo che mai, evidenziando la necessità di un bilanciamento tra l’efficacia militare e il rispetto dei diritti umani fondamentali. La tecnologia offre strumenti potenti, ma l’etica e la legge devono guidarne l’uso, soprattutto quando sono in gioco vite umane. In questo contesto, l’esempio di Lavender e delle sue implicazioni nel conflitto israelo-palestinese pone un precedente che richiede una riflessione approfondita e possibilmente, un ripensamento delle strategie adottate.