Intelligenza delle macchine e follia della guerra.
Era l'estate del 1956 quando, nel corso di un seminario estivo presso il Dartmouth College ad Hanover, negli Stati Uniti, per la prima volta venne utilizzato dall'informatico statunitense John McCarthy il termine Intelligenza Artificiale. Negli anni Cinquanta del Novecento erano comparsi infatti i primi programmi informatici in grado di risolvere problemi complessi, ma si trattava prevalentemente di giochi, come gli scacchi o la dama, o di algoritmi per dimostrare i teoremi della geometria piana.
A circa settant'anni di distanza, la definizione di IA fa riferimento a un comportamento razionale che agisce al fine di raggiungere uno scopo prefissato. Dunque, alla capacità delle macchine di svolgere compiti e azioni tipici dell'intelligenza umana (pianificazione, comprensione del linguaggio, riconoscimento di immagini e suoni, risoluzione di problemi, ecc.).
La grande disponibilità di dati e l'attuale potenza di calcolo capace di gestirli, unita allo sviluppo di nuovi algoritmi che permettono di estrarre conoscenza da tale mole di dati e trasferirla alle macchine, così da fornirgli autonomia decisionale, fanno sì che l'intelligenza artificiale possa essere usata non solo in ambienti controllati, ma in molti campi della nostra vita: dalla medicina alla finanza, dai trasporti all'educazione, dall'agricoltura all'e-commerce. L'applicazione dell'IA ha già dimostrato di essere molto utile in questi come in altri campi, automatizzando alcuni lavori e aiutando gli esseri umani a fare meglio, più velocemente e meno faticosamente molte attività.
Eppure, come ci ricorda Giovanni Chimirri, la macchina, per quanto perfetta sia, "rimane quella che è" e non è in grado di compiere azioni che richiedono discernimento etico, valori, intenzionalità, emotività. È così che, a fronte dell'evidenza delle enormi potenzialità dell'IA in vari settori della vita umana, negli anni recenti si è sviluppato un ampio dibattito su quale possa essere l'impatto sulla nostra società della sua dilagante applicazione, tanto che "Intelligenze Artificiali e Pace" è stato il tema scelto da papa Francesco per la prossima Giornata mondiale della Pace.
Quale uso?
Si tratta, quindi, di definire dove tracciare la linea di demarcazione tra gli usi ritenuti accettabili e quelli inaccettabili della nuova disciplina, prevenendone un uso inappropriato. D'altronde "ogni volta che si compiono grandi progressi è necessaria una profonda riflessione su cosa sia lecito fare e su cosa non si debba fare". Queste sono le parole con cui il fisico e premio Nobel Giorgio Parisi apre il libro Dai droni alle armi autonome. Lasciare l'apocalisse alle macchine? (Angeli, 2023), introducendo la problematicità dello sviluppo di sistemi d'arma con significativa autonomia nelle funzioni critiche di selezione e attacco dei bersagli, i cosiddetti LAWS, Lethal Autonomous Weapons System.
I più recenti progressi nella IA convergono, infatti, nel conferire alle macchine militari una crescente indipendenza in grado di affrancarle dal controllo dell'uomo: da quello diretto (il cd. man in the loop) si sta passando al controllo umano indiretto (man on the loop), fino all'incombente man off the loop, ovvero alla vera e propria estraneazione dell'uomo e alla completa autonomia della macchina.
Nonostante armi autonome e robot killer richiamino alle nostre menti gli scenari fantascientifici oggetto della filmografia distopica, l'utilizzo di tali armi non appartiene a un lontano futuro.
Nel maggio del 2021, un rapporto Onu informava sul possibile primo uso di droni autonomi in combattimento. Si tratta dei droni turchi STM Kargu-2 che, nei campi di battaglia libici, avrebbero ingaggiato autonomamente il bersaglio senza necessità di connessione dati con un operatore. E non si è certo trattato di un caso isolato. Gli Stati Uniti impiegano già oggi sistemi d'arma semi-autonomi come i missili antinave a lunga gittata che hanno sì bisogno dell'intervento umano per identificare il bersaglio, ma agiscono in piena autonomia nello scegliere come distruggerlo, oppure come la nave antisottomarino Sea Hunter che può navigare per mesi senza equipaggio. Israele, invece, utilizza un drone (Harpy) che, senza l'intervento umano, è in grado di individuare e annientare sistemi radar.
Ogni guerra offre, inoltre, l'occasione di dispiegare e sperimentare nuovi sistemi d'arma e l'invasione russa dell'Ucraina nel febbraio 2022 non fa eccezione. Se Kiev ha già nella sua artiglieria droni d'attacco semi-autonomi e armi dotate di IA per fronteggiare i droni nemici, su Mosca non ci sono certezze. La cosa sicura è che più si va avanti a combattere, più si affinano le tecniche di guerra e a mano a mano gli stessi droni arriveranno a muoversi senza l'aiuto dell'uomo. In tal senso Mykhailo Fedorov, ministro ucraino per la Trasformazione digitale, recentemente ha sostenuto che le armi completamente autonome sono il "prossimo passo logico e inevitabile" della guerra e che i soldati potrebbero vederle sul campo di battaglia nei prossimi mesi.
Già da tempo è iniziata la corsa tra le grandi potenze verso la dotazione di armamenti sempre più autonomi e letali, che vede come attori protagonisti Stati Uniti, Federazione Russa, Israele, Cina, India e alcuni Paesi della Nato. Questa propensione dei governi a crescenti investimenti per lo sviluppo di tali sistemi d'arma risiede nella possibilità di intervenire in conflitti armati senza dover inviare i propri uomini sul campo, con un conseguente risparmio in termini di costi umani. I sistemi d'arma semi-autonomi e, in prospettiva, quelli autonomi, sono d'altronde formidabili protettori delle (proprie) vite e contemporaneamente un potenziale sterminatore delle vite degli altri (i nemici).
I fautori dei LAWS sostengono che esse potranno garantire una maggiore precisione nell'attacco di obiettivi militari in determinati scenari bellici e che, al contrario di un comune soldato, la loro invulnerabilità agli stress e alle perturbazioni emotive potrà portare a un risparmio di vite umane nell'esercito nonché a evitare quelle violazioni del diritto internazionale umanitario dovute alle dure prove emotive cui sono sottoposti i combattenti sul campo di battaglia. A questo va aggiunta l'economicità di tali armi: basti pensare che il cacciabombardiere statunitense F35 ha un costo unitario di circa 130 milioni di dollari a fronte dei 5 milioni di dollari del drone turco Bayraktar, simbolo della resistenza ucraina.
Killer robots
Secondo il fisico Jürgen Altmann, i vantaggi ipotizzati nel breve periodo vanno bilanciati con le conseguenze nel più lungo periodo che potrebbero coinvolgere la sicurezza interna e internazionale. Secondo Altmann, infatti, i costi relativamente bassi dei Laws potrebbero portare un ampio numero di Stati a dotarsene, facendo così vacillare delicati equilibri militari. Per la stessa ragione, gruppi terroristici potrebbero acquistarle sul mercato illegale. Vi è poi chi sostiene che l'impiego dei killer robot e la conseguente riduzione di perdite tra le proprie truppe renderebbe più difficile "resistere alla tentazione della guerra", facendone diventare la società civile uno spettatore completamente passivo.
A questo vanno aggiunte le considerazioni etiche e morali. A livello mondiale circa 4.500 ricercatori di varie discipline (in particolare quelle legate a informatica, robotica e intelligenza artificiale) hanno firmato un appello per la messa al bando delle armi completamente autonome, ritenendole "moralmente inaccettabili".
L'utilizzo delle armi autonome minaccia in prima istanza le principali norme del diritto umanitario: il principio di distinzione e il principio di proporzionalità. Da un lato, risulta difficile immaginare come la robotica e l'intelligenza artificiale potranno sviluppare sistemi che sappiano distinguere tra combattenti e popolazione civile, fra bersagli leciti e illeciti, fra prigionieri di guerra, internati civili e prigionieri comuni. Dall'altro lato, è irrealistico ritenere che l'IA sarà in grado di valutare che vi sia un vantaggio militare concreto e diretto nell'azione militare, in relazione alle perdite umane e ai danni alla popolazione civile, ai beni culturali e ai beni civili, causati incidentalmente.
Responsabilità
A tal riguardo sono condivisibili gli interrogativi posti dal filosofo della scienza Guglielmo Tamburrini: se un'arma autonoma dovesse causare sofferenze ingiustificate al nemico e/o alla popolazione civile, non discriminando adeguatamente il bersaglio legittimo, chi sarebbe ritenuto responsabile? Gli scienziati che hanno contribuito a sviluppare l'arma autonoma e/o chi l'ha prodotta? Il comandante in capo all'operazione militare e/o il personale militare incaricato di supervisionarne il funzionamento? Da qui il dubbio relativo alla possibilità, da parte delle armi autonome, di mantenere la catena delle responsabilità nelle azioni belliche. Infine, l'utilizzo dei killer robot non garantirebbe il rispetto della dignità umana: le decisioni sulla vita o la morte in un conflitto armato richiedono intuizione e compassione e gli esseri umani, per quanto fallibili, possono (talora) possederle entrambe, le macchine sicuramente no.
La società civile
Solo forti pressioni da parte della società civile, come esempio il lancio della Campagna Stop Killer Robots nel 2013, alla quale partecipano per l'Italia Archivio Disarmo e altre associazioni, hanno fatto sì che il tema delle armi autonome fosse incluso, a partire dal 2016, all'interno dell'agenda della Conferenza di riesame della Convention on Certain Conventional Weapons (CCW). Dopo 10 anni di discussioni internazionali, un risultato storico è stato raggiunto il 1° novembre 2023. La Commissione dell'Assemblea Generale delle Nazioni Unite dedicata al Disarmo ha adottato la prima Risoluzione mai discussa sulle armi autonome, sottolineando la "necessità urgente per la comunità internazionale di affrontare le sfide e le preoccupazioni sollevate dai sistemi di armi autonome". Come evidenzia Rete Italiana Pace e Disarmo, questo voto rappresenta un passo avanti fondamentale e apre la strada alla negoziazione di una nuova norma internazionale sulle armi autonome.
====================
L'autrice
Francesca Farruggia è Segretaria Generale di Archivio Disarmo e Ricercatrice presso il Dipartimento di Scienze Sociali ed Economiche dell'Università di Roma La Sapienza.
Ha curato l'opera Dai droni alle armi autonome. Lasciare l'Apocalisse alle macchine? edito da Franco Angeli nel 2023, con contributi di Fabrizio Battistelli, Sofia Bertieri, Barbara Gallo, Adriano Ilaria, Diego Latella, Michael Malinconi, Giorgio Parisi, Juan Carlos Rossi, Maurizio Simoncelli, Gian Piero Siroli, Guglielmo Tamburrini.
Come porre freno alle armi semi-autonome (droni) e autonome (i cosiddetti robot-killer) che sfuggono al controllo umano? Gli autori ipotizzano due strade possibili: l'opera della società civile, intesa sia come comunità scientifica internazionale sia come opinione pubblica. E una seconda possibilità è riposta negli accordi internazionali per il controllo delle armi semi autonome e per la prevenzione e il divieto delle armi letali autonome.
====================
Il rapporto dell'uomo con i suoi prodotti rimane in fondo un rapporto dell'uomo con se stesso! Egli ha bisogno di fare perché la natura non l'ha dotato degli strumenti necessari alla sua sopravvivenza come ha fatto invece per tutte le altre forme di vita animale e vegetale. Così, da un lato, l'uomo è inferiore alla natura, ma dall'altro, grazie alla sua intelligenza, è superiore e recupera la sua imperfezione modificando la natura, costruendola, stravolgendola: da sempre siamo gente che progetta e che produce artifici (utensili, macchine, automatismi). Da un lato, la vita è sacra e intoccabile, ma dall'altro lato l'uomo si permette di ricrearla secondo i suoi interessi. Se le moderne tecnologie intelligenti forniscono nuove opportunità relazionali, cognitive ed economiche, bisogna pur sempre stare attenti al loro uso morale in vista del bene di tutti.
Giovanni Chimirri, IA, Intelligenza Artificiale. Etica delle macchine pensanti, ed. Asterios 2021