Il ruolo dell’intelligenza artificiale nei raid a Gaza solleva questioni etiche
La guerra moderna si sta evolvendo in maniera sempre più tecnologica, con l’integrazione dell’intelligenza artificiale (IA) nei processi decisionali militari che suscita profonde preoccupazioni etiche e umanitarie. Una recente inchiesta congiunta di +972 Magazine e Local Call, rivelata in Italia dal manifesto, ha portato alla luce l’utilizzo da parte di Israele di un sistema basato su IA, noto come Lavender, per automatizzare la ricerca e selezione di obiettivi a Gaza. Questa macchina da guerra digitale ha accelerato il processo di autorizzazione dei bombardamenti, ma ha mostrato un’alta percentuale di errore, con conseguenze devastanti per la popolazione civile.
Secondo l’inchiesta, firmata da Yuval Abraham e basata sulle testimonianze di sei ufficiali di intelligence israeliani che hanno mantenuto l’anonimato, Lavender ha identificato circa 37mila obiettivi dall’inizio dell’offensiva israeliana come risposta al massacro di Hamas del 7 ottobre. Tuttavia, il sistema presenta un margine di errore del 10%, una cifra allarmante considerando la densità della Striscia di Gaza e il numero di vittime civili che ha superato le 33mila in sei mesi.
Automazione e decisioni di vita o di morte
L’intelligenza artificiale Lavender, sviluppata dall’unità di intelligence d’élite delle forze di difesa israeliane, l’unità 8200, è stata addestrata per riconoscere comportamenti e individui potenzialmente legati ad Hamas o alla Jihad islamica. Attraverso l’analisi di migliaia di dati forniti da droni e intercettazioni telefoniche, il sistema assegna a ogni abitante di Gaza un punteggio basato sulla probabilità di essere un miliziano. Nonostante l’alta tecnologia impiegata, il margine di errore rilevato e l’affidamento quasi totale al sistema hanno portato a un elevato numero di vittime innocenti.
Le dichiarazioni degli ufficiali coinvolti nell’operazione rivelano un quadro inquietante. Uno di essi ha confidato, ‘È il Sacro Graal. Una volta che passi all’automazione, la generazione degli obiettivi diventa una follia’. L’uso di Lavender, inizialmente pensato come strumento ausiliario, è diventato sistematico, riducendo drasticamente il tempo di approvazione per un attacco e aumentando la frequenza dei bombardamenti senza una verifica umana adeguata.
Conseguenze umanitarie e questioni legali
Il sistema Lavender non solo ha semplificato la procedura di selezione degli obiettivi, ma ha anche modificato le regole d’ingaggio, allentando i criteri per evitare vittime civili. Alcuni obiettivi venivano attaccati nelle proprie case, spesso con tutta la famiglia, basandosi su quote pre-autorizzate di ‘vittime collaterali consentite’ che hanno reso i raid più semplici ed efficienti, ma moralmente e legalmente discutibili. Questo approccio ha portato a un incremento significativo del numero di civili uccisi, sollevando interrogativi sulla conformità con il diritto internazionale umanitario.
Nonostante le autorità militari israeliane neghino l’utilizzo dell’intelligenza artificiale per identificare obiettivi, sostenendo che si tratti di ‘strumenti ausiliari’ che richiedono sempre una verifica indipendente, le testimonianze raccolte dall’inchiesta suggeriscono una realtà differente. La dipendenza da un ‘meccanismo statistico’, come descritto da un funzionario, evidenzia una tendenza preoccupante a delegare decisioni di vita o di morte a sistemi automatici, con tutti i rischi che ciò comporta.
Implicazioni future e dibattiti etici
L’uso di Lavender e sistemi simili in contesti bellici apre nuovi scenari sul futuro della guerra e sul ruolo dell’intelligenza artificiale in ambito militare. Mentre la tecnologia può offrire vantaggi in termini di velocità e precisione, le implicazioni etiche e umanitarie di tali strumenti richiedono una riflessione approfondita. La responsabilità delle decisioni, la valutazione del rischio di errore e il rispetto dei principi del diritto internazionale sono solo alcune delle questioni che emergono in questo contesto.
La sfida principale rimane quella di bilanciare l’efficacia militare con la protezione dei civili, assicurando che l’utilizzo dell’intelligenza artificiale sia guidato da rigorosi standard etici e legali. La guerra a Gaza ha messo in luce le pericolose conseguenze di un’affidabilità eccessiva sui sistemi automatizzati, sottolineando la necessità di mantenere il controllo umano sulle decisioni critiche in ambito bellico. La discussione su come integrare responsabilmente le nuove tecnologie nella strategia militare è più attuale che mai, con l’obiettivo ultimo di minimizzare le sofferenze umane e preservare la dignità di ogni individuo.
Il dibattito su Lavender e l’impiego di intelligenza artificiale nei conflitti continua a sollevare interrogativi fondamentali sull’etica della guerra nel ventunesimo secolo. Mentre le tecnologie avanzano a ritmi sempre più rapidi, la comunità internazionale è chiamata a confrontarsi con le implicazioni morali e legali di queste innovazioni, in cerca di un equilibrio tra progresso e umanità.