Le intelligenze artificiali, le innovazioni tecnologiche applicate alle armi, automazioni, laser e cyberwar: quale sicurezza per il futuro dell'umanità?
Quale controllo umano sulle nuove frontiere tecnologiche degli armamenti?

 

La tecnologia sta diventando sempre più un elemento fondamentale della nostra società. Basti pensare a quella applicata nel settore automobilistico dove già si parla di vetture a guida autonoma o a quella utilizzata largamente nel settore sanitario, permettendo diagnosi e interventi nel recente passato impossibili.

Anche nell'ambito della difesa e della sicurezza le tecnologie emergenti stanno conquistando un ruolo centrale, come hanno evidenziato sia il comunicato del vertice NATO del 14 giugno 2021, sia quello del G7 del 13 giugno, sia la Carta del Nuovo Atlantico di Joe Biden e Boris Johnson del 10 scorso. In quest'ultimo documento, tra l'altro, si parla chiaramente di "gestire il pericolo delle tecnologie emergenti".

Intelligenza artificiale

Le tecnologie emergenti, basate sulla cosiddetta intelligenza artificiale (IA), sono il fulcro di questa trasformazione in atto che sta coinvolgendo profondamente tutto l'ambito della difesa, dai velivoli alle navi, dai missili ai sistemi d'arma terrestri, fino alla cyberwarfare, la guerra cibernetica. Queste tecnologie vengono sempre più applicate a sistemi d'arma già esistenti, riducendo progressivamente il controllo umano che diventa marginale al punto che essi possono decidere autonomamente l'azione letale. Queste armi autonome (Lethal Autonomous Weapons Systems LAWS) e l'IA costituiscono peraltro un mercato appetitoso al punto che si stima che la spesa militare globale in questo ambito raggiungerà rispettivamente i 16 (LAWS) e i 18 (IA) miliardi di dollari entro il 2025. Attualmente sono relativamente pochi i Paesi in grado di investire in questo settore, ma è certo che nel giro di pochi anni i costi si abbatteranno. Si pensi ai costi elevati dei primi telefonini con basse prestazioni e a quelli più contenuti con prestazioni elevatissime di quelli attualmente in commercio. Stampanti 3D, con nuovi materiali, permetteranno la realizzazione "in casa" di sistemi d'arma anche alla delinquenza organizzata o a formazioni terroristiche.

I droni

I droni, pochi anni fa nuovo prodotto costoso, possono oggi essere acquistati a prezzi decisamente modici ed essere collegati a computer in grado di costituire una vera e propria minaccia nelle mani sbagliate: già nel 2016 Newsweek riportava la notizia che un dottore di ricerca presso l'Università di Cincinnati aveva costruito un pilota di IA con un computer Raspberry Pi (dal costo di 35 dollari) utilizzandolo poi in una serie di duelli aerei simulati con diversi esperti piloti di caccia, sconfiggendoli tutti. Tenendo presente poi che le tecnologie offensive costano meno di quelle difensive, il quadro si complica ulteriormente rendendo più facile perseguire la via dell'attacco che quella opposta. Anche nell'ambito della sicurezza, le nuove tecnologie possono aiutare regimi autoritari o dittatoriali nel controllo e nella repressione: si pensi ai sistemi di riconoscimento facciale utilizzati dalla Cina nei confronti degli uiguri. Presso la sede cinese della Canon Information Technology il riconoscimento facciale prevede che i dipendenti sorridano, monitorando quindi anche lo stato d'animo delle persone, La Cina, all'avanguardia in questo settore, ha inoltre tenuto corsi di formazione con funzionari di oltre trenta Paesi. Comunque, nel momento in cui la popolazione viene sempre meno coinvolta in un eventuale conflitto, aumenta il disinteresse verso eventuali guerre: lo dimostra il passaggio dalla leva obbligatoria a quella volontaria. Se verranno utilizzati soldati-robot, l'interesse e il coinvolgimento scenderanno ancora e i governi avranno mano libera per le loro azioni belliche.

Nucleare

Se poi applichiamo queste tecnologie al settore nucleare, i rischi aumentano esponenzialmente. Infatti, se consideriamo che, secondo alcuni analisti riuniti al Gartner Data & Analytics Summit nel marzo 2018 a Londra, "fino al 2022, l'85% dei progetti di intelligenza artificiale fornirà risultati errati a causa di errori nei dati, negli algoritmi o nei team responsabili della loro gestione", le preoccupazioni non possono che aumentare. Considerando queste previsioni pessimistiche e ipotizzando un possibile, progressivo miglioramento nella percentuale di errori, rimane comunque un quadro preoccupante: se invece di 85% si parlerà di 70% o di 50% negli anni a venire, permettere all'IA di operare autonomamente in campo bellico appare assai rischioso.

I primi cinque Paesi leader mondiali nello sviluppo di armi autonome per ora sono nell'ordine Stati Uniti, Cina, Russia, Corea del Sud e Unione Europea. I primi tre sono le più grandi potenze nucleari, ma anche nell'ambito europeo vi sono la Gran Bretagna (che recentemente ha dichiarato di voler aumentare il suo arsenale atomico del 40%) e la Francia (dotata di 280 testate). Un recente rapporto dell'European Leadership Network del 17 giugno, tra l'altro, sottolinea l'importanza di mantenere il controllo umano nel processo decisionale sulle armi nucleari e ricorda la necessità di un'attenzione allargata sugli effetti dirompenti delle tecnologie per quanto riguarda le suddette armi nucleari.

Ad esempio, infatti, in questo campo la ricerca e sviluppo (R&S) dei missili ipersonici, capaci di una traiettoria non balistica – viaggiando a minore altezza rispetto ai missili tradizionali – e di giungere sull'obiettivo con minore spazio temporale di preallarme da parte avversaria, aumenta i rischi di proliferazione di un vero e proprio conflitto nucleare. Alessandro Pascolini, in un recente paper pubblicato in "IRIAD Review. Studi sulla pace e sui conflitti" nel dicembre 2020, mette in evidenza come queste armi, per le loro caratteristiche, presentino ambiguità di destinazione, di armamento e di origine. Praticamente sarebbe assai difficile comprendere da chi siano stati lanciati, a chi siano destinati e di quale testata convenzionale o nucleare siano dotati.

L'insicurezza, creata da tempi di avvistamento e di reazione assai ridotti, porterebbe a scelte affrettate, imprecise e pericolose, sempre più affidate all'IA, unica in grado di elaborare una moltitudine di dati e di decisioni in tempi brevissimi. Premessa la percentuale di errori suaccennata, tutto ciò avrebbe un impatto negativo sulla stabilità strategica e sulle dinamiche di escalation in un'eventuale crisi.

Comunque se le LAWS e l'IA svolgono un ruolo centrale nelle nuove tecnologie belliche, la R&S nel settore della difesa non si limita solo ad esse. Troviamo armi laser in grado di distruggere missili o droni, di mettere fuori uso sistemi di comando e di controllo. Troviamo sciami di droni d'attacco che operano in sintonia con un capogruppo o che si scambiano reciprocamente informazioni in tempo reale aggiornando di continuo i piani d'azione comune. Attacchi cyber possono mettere in ginocchio reti di comunicazione, banche dati, penetrando addirittura nei sistemi di comando e di controllo militari. E così via.

Il MUOS

Nel giro di pochi anni tutto cambierà profondamente e start up, università e centri di ricerca saranno sempre più importanti per il settore della difesa proprio per la loro capacità di lavorare sull'innovazione. Già da tempo funziona il MUOS (acronimo di Mobile User Objective System), un sistema statunitense di comunicazioni satellitari militari ad alta frequenza, con quattro basi terrestri nel mondo (tra cui Niscemi in Sicilia) e quattro satelliti, che collega forze navali, aeree e terrestri in movimento in qualsiasi parte del pianeta, trasmettendo con maggiore velocità le informazioni ricevute. Nel momento in cui tutto questo viene gestito da algoritmi, da forme di IA di vario genere, insomma da "macchine evolute", s'incorre nel rischio della scalabilità, cioè nel fatto che nell'ambito di un sistema complesso automatizzato l'eventuale errore iniziale viene poi replicato nell'ambito della catena di comando con conseguenze nefaste. La progressiva espulsione del soggetto umano dall'ambiente bellico può apparire un progresso tecnologico e un vantaggio per la vita dei propri militari, ma nasconde tante e tali insidie che sono ad oggi difficili anche immaginare. Come l'apprendista stregone del disneyano "Fantasia", rischiamo che il tutto diventi incontrollabile e ci sfugga di mano.

 

 

===============

Maurizio Simoncelli è uno storico, esperto di geopolitica, vice-presidente e cofondatore di IRIAD. Ha scritto numerosi libri che suggeriamo a coloro che desiderano conoscere, informarsi e approfondire tematiche inerenti il disarmo. Info: https://www.iriad.it/   

 


Mosaico di pace, rivista promossa da Pax Christi Italia e fondata da don Tonino Bello, si mantiene in vita solo grazie agli abbonamenti e alle donazioni.
Se non sei abbonato, ti invitiamo a valutare una delle nostre proposte:
https://www.mosaicodipace.it/index.php/abbonamenti
e, in ogni caso, ogni piccola donazione è un respiro in più per il nostro lavoro:
https://www.mosaicodipace.it/index.php/altri-acquisti-e-donazioni