Quando l'intelligenza artificiale si sposa con le armi: cosa cambia e in che direzione?
"Sparagli Piero, sparagli adesso…e dopo un colpo sparagli ancora", cantava mogio De André a metà degli anni Sessanta dello scorso secolo, in piena guerra del Vietnam affollata di fanti appiedati. C'è da domandarsi cosa canterebbe oggi a fronte di attrezzi militari supertecnologici che hanno già deciso dove, quando e contro chi o cosa aprire il fuoco per uccidere e distruggere. Come nel caso dell'onnipresente sistema aereo sprovvisto di pilota a bordo, il drone, il più noto tra i tanti strumenti militari che hanno già rivoluzionato anche la guerra.
Ecco, la disumanità di un ritrovato, peraltro adatto anche ai regali del prossimo Natale, grazie al suo utilizzo civile e militare, è colta anche in questo aspetto: nessun bravo cantautore, nessun Fabrizio, racconterà cantando di un attrezzo militare autonomo, tantomeno metterà in musica un sistema d'arma autonomo letale. LAWS, per gli esperti militari: Lethal Autonomous Weapon System.
Sostituire Piero con una macchina autonoma, cioè, dotata della stessa intelligenza che consente al soldato di prendere una decisione definitiva, non è ancora realtà, fortunatamente. Ma sembra che in molti stiano lavorando alacremente per realizzarla.
La tecnologia dell'intelligenza artificiale (AI, Artificial Intelligence) lo renderà possibile presto, molto presto, grazie in particolare a quella branca dell'AI che va sotto il nome di apprendimento automatico, già applicato con successo in vari ambiti: dal riconoscimento di immagini e interi ambienti, della voce e del linguaggio naturale, alla traduzione immediata di qualsiasi lingua, all'organizzazione e analisi immediata di enormi quantità di dati con fini predittivi o di diagnosi e al controllo di sistemi autonomi, come i veicoli a guida autonoma.
Due tappe dell'agognata autonomia che procede a tappe forzate sono già state pienamente realizzate. Superato di gran lunga l'automatismo – preistoria dell'industria militare impegnata nella produzione di mitragliatrici e mine a esplosione automatica, peraltro già fuori legge a livello internazionale – è stata messa in servizio una macchina che ha il pieno controllo dell'ambiente, ma è l'essere umano che la guida da remoto e prende la decisione finale su cosa debba fare.
Questo sistema è definito semiautonomo ed è comune alla generazione dei droni attualmente più diffusa in commercio (uso civile) e in guerra (uso militare).
Questo livello è già stato superato dal sistema autonomo supervisionato: la macchina può agire e decidere da sola, ma l'uomo può osservarne da remoto il comportamento e, se necessario, intervenire. Il terzo e ultimo caso è quello di un sistema completamente autonomo: la macchina è programmata per agire e decidere da sola, l'uomo non ha alcun controllo su di essa e pertanto resta completamente al di fuori della sua attività. Attualmente sono disponibili sistemi militari riconducibili alle prime due tipologie: il terzo livello, di completa autonomia della macchina, non è ancora in circolazione. Però viene già sperimentato.
Fortunatamente il killer robot non si è ancora visto, nei campi di battaglia. Al momento sovrasta piuttosto titolo e attività di un movimento internazionale, la Campagna Stop Killer Robot, rete di 250 organizzazioni della società civile mondiale che dal 2012 chiede un trattato internazionale con un solo chiaro obiettivo: garantire il totale controllo umano sull'uso della forza.
Un tema attuale, visto che in Ucraina, a Gaza e nell'offensiva israeliana in Libano le sperimentazioni dell'AI sono apertamente impiegate sul campo e dimostrano un ritmo di sviluppo sorprendente.
Se ne è discusso il mese scorso a Roma, presso la facoltà di Scienze politiche della Sapienza, al convegno "Intelligenza delle macchine e follia della guerra: le armi letali autonome", organizzato dall'Istituto ricerche internazionali Archivio Disarmo (IRIAD) e da Rete italiana pace e disarmo, assieme ad Amnesty International, Croce Rossa italiana ed Etica Sgr. Il convegno ha ospitato Peter Asaro, numero due di Stop killer robots, presente a Roma per ricevere il Premio Colombe d'oro per la pace 2024 - Sezione internazionale, assegnato proprio a Stop Killer Robot.
Asaro ha presentato l'obiettivo immediato della Campagna, impegnata a sostenere l'approvazione della risoluzione dell'Assemblea generale dell'ONU sulle armi autonome promossa dall'Austria nel 2023 e votata, in quella occasione, da 164 Paesi. 5 i contrari, numero abbastanza modesto da creare ottimismo: Bielorussia, Russia, India, Mali e Niger; 8 invece gli astenuti: Cina, Corea del Nord, Iran, Israele, Arabia Saudita, Siria, Turchia ed Emirati arabi.
L'obiettivo è consolidare un ampio fronte politico come tappa verso un trattato giuridicamente vincolante. La posizione favorevole dell'Italia è testimoniata dal sì alla risoluzione del 2023 e anche dal fatto che i promotori del convegno a Roma siano stati ricevuti lo scorso 8 ottobre al Quirinale dal Presidente Sergio Mattarella. Anche papa Francesco si è impegnato a favore di una regolamentazione delle LAWS: a giugno, al Vertice G7 a guida italiana a Borgo Egnazia, in Puglia, ha "insistito" – questo il termine usato dal Papa – nel sostenere che "in un dramma come quello dei conflitti armati è urgente ripensare lo sviluppo e l'utilizzo di dispositivi come le cosiddette armi letali autonome per bandirne l'uso, cominciando già da un impegno fattivo e concreto per introdurre un sempre maggiore e significativo controllo umano. Nessuna macchina – ha continuato il Papa – dovrebbe mai scegliere se togliere la vita a un essere umano."
L'AI applicata ai ritrovati militari per la Difesa è rimasta al centro dell'attenzione anche nel caso di un altro dei riconoscimenti per la Sezione giornalisti del Premio Archivio disarmo – Colombe d'oro 2024, assegnato all'israeliano Meron Rapoport, editorialista della rivista online israelo-palestinese +972 Magazine e direttore del sito gemello in lingua ebraica, Local Call. Queste due testate hanno il merito di aver rivelato che l'esercito israeliano ha sviluppato un programma basato sull'intelligenza artificiale noto come Lavender. Si tratta di un sistema progettato per contrassegnare il maggior numero possibile di sospetti operativi nelle ali militari di Hamas e della Jihad islamica palestinese, compresi personaggi di basso rango, come potenziali obiettivi da eliminare. Le fonti intervistate – graduati dell'esercito israeliano e dell'intelligence di Tel Aviv – hanno detto a +972 e Local Call che, durante le prime settimane dell'offensiva israeliana a Gaza, l'esercito si è affidato quasi completamente a Lavender, che ha schedato fino a 37mila palestinesi – comprese le loro residenze – come sospetti militanti di Hamas sui quali poter prendere la mira.
Durante le prime fasi della guerra, l'esercito avrebbe così dato approvazione agli ufficiali di adottare le liste delle persone da colpire, senza controllare dettagliatamente il motivo per cui l'intelligenza di Lavender aveva fatto quell'opzione o esaminare i dati alla base delle sue scelte artificiali. Inoltre, l'esercito israeliano avrebbe preferibilmente attaccato gli individui schedati mentre erano nelle loro case, di solito di notte, quando erano presenti anche le loro famiglie, piuttosto che nel corso dell'attività militare. Secondo le fonti, ciò era dovuto al fatto che era "più facile" localizzare gli individui nelle loro case private, anche grazie a un altro programma intelligente (The Gospel) in grado di schedare qualsiasi edificio sospetto.
Per l'esercito israeliano, il termine bersaglio umano in passato si riferiva a un alto grado militare che, secondo le regole del Dipartimento di Diritto Internazionale dell'Esercito, poteva essere ucciso nella sua casa privata anche se in presenza di altri civili. Fonti dell'intelligence hanno detto a +972 e Local Call che durante le precedenti guerre di Israele, dal momento che questo era un modo "particolarmente brutale" per uccidere qualcuno – spesso un'intera famiglia – tali obiettivi umani venivano contrassegnati con molta attenzione: solo gli alti comandanti militari sono stati bombardati nelle loro case nel tentativo di mantenere – peraltro con grande difficoltà – il principio di proporzionalità del diritto umanitario internazionale. Ma dopo il 7 ottobre 2023 – quando i militari di Hamas hanno lanciato l'assalto mortale alle comunità israeliane meridionali, trucidando circa 1.200 persone e rapendone 240 – l'esercito, hanno detto le fonti, ha adottato un approccio radicalmente diverso. Nell'ambito della Operazione Spade di Ferro, tutti i profili dell'ala militare di Hamas sono designati come bersagli umani, indipendentemente dal loro grado o importanza militare. E questo ha cambiato tutto.
Con una mossa senza precedenti persino nell'ambito di questo Paese a lungo martoriato dalle guerre, secondo le fonti di +972 e Local Call, l'esercito israeliano ha deciso, durante le prime settimane di guerra a Gaza, che per ogni giovane militante di Hamas che Lavender ha schedato definitivamente, era permesso uccidere fino a 15 o 20 civili. In precedenza, l'esercito non autorizzava alcun danno collaterale agli omicidi di militanti di basso rango. Le fonti hanno aggiunto che, nel caso in cui l'obiettivo fosse un alto ufficiale di Hamas con il grado di comandante di battaglione o di brigata, l'esercito in diverse occasioni avrebbe autorizzato l'uccisione di più di 100 civili nell'assassinio di un singolo comandante.
Altro che "sparagli Piero, sparagli adesso…": l'intelligenza artificiale al 30 di ottobre del 2024 a Gaza conta 43.163 morti.