Le nuove frontiere del riarmo vanno verso l'automazione militare: i Killer Robots, armi autonome e letali.
È già in corso una Campagna internazionale per fermare tali armamenti capaci di sfuggire al controllo umano.
Nell'aprile 2018 la Campagna internazionale "Stop Killer Robots" ha compiuto cinque anni, riuscendo a "regalarsi" un quinto incontro (dal 2014) in cui presso la Convenzione sulle armi convenzionali (CCW) a Ginevra i governi si sono riuniti
per discutere delle preoccupazioni sui sistemi di armi autonome, noti anche come armi completamente autonome o "killer robots". Incontro in un certo senso ancora interlocutorio, ma che ha mostrato una crescente convergenza sulla necessità di norme internazionali a riguardo.
Negoziati
Ora i Paesi che chiedono un divieto per le armi completamente autonome sono 26, con le ultime aggiunte di Austria, Cina, Colombia e Gibuti. "Dopo questa CCW siamo più che mai convinti che gli Stati debbano determinare con urgenza cosa è accettabile quando si tratta di mantenere il controllo umano sui sistemi d'arma e sull'uso della forza" – ha detto Mary Wareham di Human Rights Watch che coordina la Campaign to Stop Killer Robots – "Ci sentiamo rincuorati che un numero significativo di Stati ora riconosca l'urgente necessità di iniziare a negoziare una nuova legge internazionale per prevenire un futuro fatto di armi completamente autonome". Durante l'incontro, l'Austria e altri Stati hanno proposto che in sede CCW si accetti di avviare negoziati su uno strumento giuridicamente vincolante (vale a dire, un Protocollo o un Trattato) che punti a mantenere un controllo umano significativo sulle funzioni critiche della selezione e dell'impegno in azioni militari. Per prevenire lo sviluppo e la proliferazione di queste armi e affrontare le gravi preoccupazioni etiche, legali, operative, tecniche, di proliferazione e di sicurezza internazionale, la Campaign to Stop Killer Robots invita gli Stati a negoziare e adottare un nuovo Trattato di divieto entro la fine del 2019.
Perché preoccuparsi?
Diversi sistemi di armi autonome con livelli decrescenti di controllo umano sono attualmente in uso e sono sviluppati da forze armate dotate di capacità high-tech tra cui Stati Uniti, Cina, Israele, Corea del Sud, Russia e Regno Unito. La preoccupazione è che i progressi nell'intelligenza artificiale e un più facile accesso a parti tecnologiche rendano sempre più pratico progettare sistemi di armi che possano definire un bersaglio e attaccarlo senza alcun controllo umano significativo. Se la tendenza verso l'autonomia dei sistemi d'armamento continuerà, gli umani potrebbero iniziare a essere estromessi dal ciclo decisionale per determinate azioni militari, forse mantenendo solo un ruolo limitato di supervisione o semplicemente impostando ampi parametri generali della missione. Un tale sviluppo di vasta portata solleva una serie di profondi problemi etici, di diritti umani, legali, operativi, di proliferazione, tecnici e di altro genere. Sebbene a oggi è incerto quale potrà essere lo sviluppo tecnologico in questo senso, vi sono forti motivi per ritenere che lo spostamento verso i sistemi d'arma di passaggi decisionali (anche rispetto agli obiettivi da colpire) eroderà gli obblighi fondamentali previsti dalle norme del diritto internazionale umanitario (IHL) e dei diritti umani. Andando anche a diminuire le responsabilità e le possibilità di supervisione: presi tutti insieme tali sviluppi produrranno una forte "disumanizzazione" dei processi militari o di polizia.
Che cos'è?
Questa locuzione molto suggestiva va a indicare quelle che in termini tecnici sono definite armi completamente autonome o "FAWS" (note anche come sistemi d'arma autonomi letali "LAWS"). In pratica, si tratta di un sistema d'arma che identifica, seleziona e impiega la forza contro obiettivi senza un controllo umano significativo. Non c'è intervento umano nel ciclo decisionale quando il sistema seleziona e impegna il bersaglio di un attacco senza che qualcuno lo possa fermare. E applicare il controllo umano solo in funzione della progettazione e in una fase iniziale di implementazione non può ovviamente andare a soddisfare gli obblighi di diritto umanitario che, invece, ora si applicano ai comandanti in relazione a ciascun attacco in ambito bellico. Da tempo, la Campagna "Stop Killer Robots" incoraggia gli Stati a elaborare le caratteristiche chiave per una definizione operativa di sistemi di armi autonomi letali – basata sul fatto che essi andrebbero a operare senza un controllo umano significativo nelle "funzioni critiche" dell'identificazione, selezione e utilizzo della forza sugli obiettivi. Un passaggio che ha visto sviluppi positivi nelle ultime riunioni in sede ONU: "Il concetto di controllo umano è ora saldamente al centro del dibattito su cosa fare in relazione a questi sistemi d'arma" – ha affermato il professor Noel Sharkey, presidente dell'International Committee for Robot Arms Control e cofondatore della Campaign to Stop Killer Robots – "Negoziando un nuovo Trattato internazionale, gli Stati saranno in grado di superare opinioni divergenti su come definire i sistemi letali di armi autonome stabilendo collettivamente un principio di controllo umano significativo sui sistemi d'arma e l'uso della forza violenta".
Perché il controllo umano?
Un sufficiente controllo umano sull'uso delle armi e dei loro effetti è essenziale per garantire che l'uso di un'arma sia moralmente giustificabile e possa essere legale. Tale controllo è anche richiesto come base per la responsabilità sulle conseguenze dell'uso della forza. Per dimostrare che tale controllo può essere esercitato, gli Stati devono dimostrare di comprendere il processo attraverso il quale specifici sistemi identificano i singoli oggetti target e comprendono il contesto, nello spazio e nel tempo, in cui può essere applicata la forza. Affinché il controllo umano sia significativo, la tecnologia deve essere prevedibile, il controllore (nella linea di comando militare) deve disporre di informazioni pertinenti e deve esserci il potenziale per un giudizio e un intervento umano tempestivo.
La Campagna
Dato lo sviluppo di una maggiore autonomia nei sistemi d'arma, gli Stati dovrebbero rendere esplicito che è necessario un controllo umano significativo su singoli attacchi e che i sistemi d'arma che operano senza tale controllo umano significativo dovrebbero essere proibiti. Si tratta del cuore delle richieste della società civile internazionale riunita nella Campagna "Stop Killer Robots", secondo cui gli Stati dovrebbero prepararsi a:
• Elaborare le caratteristiche chiave per una definizione operativa di sistemi di armi autonome letali, che la Campagna considera come sistemi operativi senza un significativo controllo umano nelle "funzioni critiche" di identificazione, selezione e applicazione della forza sugli obiettivi;
• Identificare i "punti di contatto" rilevanti dell'interazione uomo/macchina attraverso cui è possibile attuare e garantire il necessario controllo umano sui sistemi d'arma;
• Delineare il percorso preferito in sede normativa internazionale, non considerando misure che non comportino uno strumento giuridicamente vincolante e chiedendo, invece, l'inizio dei negoziati verso un Trattato o una Convenzione di proibizione preventiva.
E l'Italia?
L'Italia in questi anni ha espresso una posizione contraria a un divieto internazionale o a una regolamentazione delle LAWS, affermando che "l'adozione di un divieto totale o di altri tipi di limitazioni generali su tecnologie completamente autonome sarebbe prematura", ma ritenendo "molto prezioso continuare le discussioni nel quadro del CCW". L'Italia ritiene, inoltre, che l'attuale legislazione umanitaria internazionale sia sufficiente per valutare la legalità di entrambi i tipi di sistemi caso per caso. Il Parlamento si è occupato della questione solo in un caso, lo scorso dicembre 2017, discutendo una mozione dell'on. Stefano Quintarelli, che proponeva la messa al bando delle armi autonome. Tale mozione non è stata approvata e al contrario il voto favorevole è andato su testi troppo generici, anche se nella direzione auspicata dalla Campagna internazionale e dalla Rete Italiana per il Disarmo che la rappresenta in Italia. L'intenzione espressa è ora quella di lavorare affinché nel 2018 la questione dei "Killer Robots" sia affrontata in maniera approfondita in ambito parlamentare. Un punto specifico sul tema è stato inserito nella piattaforma "Un futuro di pace e disarmo" che la RID ha sottoposto ai candidati delle scorse elezioni politiche.