Intelligenza artificiale in ambito militare?
No, grazie. Dalle nuove ricerche tecnologiche al perseverare per la ricerca nucleare.

 

Nello sviluppare questo tema riguardante l’Intelligenza Artificiale in ambito militare parto da due notizie recenti. La prima riguarda la scomparsa di Stanislav Petrov, l’eroe sconosciuto che salvò il mondo dalla guerra nucleare. In quanto ex ufficiale sovietico, ebbe il merito di ignorare i sistemi che comunicavano il lancio di missili dagli Usa evitando così una guerra nucleare devastante per l’intero Pianeta. Per il suo gesto non fu premiato ma richiamato. La seconda notizia riguarda la scomparsa di un sottomarino al largo dell’Argentina. I sensori rilevarono che v’era stata un’esplosione. Un errore. Per fortuna non si trattò di un sottomarino con testate atomiche. Il primo caso dimostra inequivocabilmente che solo una persona umana con raziocinio poteva discernere e non certo un robot che risponde su sistema binario on-off. Il caso del sottomarino, invece, dimostra che per quanta attenzione noi possiamo predisporre in una missione la possibilità di errore esiste. Sarà pure infinitesima, ma esiste. Il Dipartimento della Difesa USA sembra non tener conto di tutto ciò. Nella Direttiva “3000.09 – “Autonomy in Weapons Systems” ha creato la categoria delle “armi autonome”: sistemi d’arma che sono capaci di “selezionare e attaccare gli obiettivi senza ulteriori interventi da parte di operatori umani”.

Opportunità?

I primi robot armati autonomi sono già operativi. Per esempio, la sentinella robotica SGR-A1, nata da una collaborazione fra l’Università di Seoul e la Samsung viene già dispiegata dalla Corea del Sud per sorvegliare la zona demilitarizzata al confine con l’“irrequieta” Corea del Nord.

Questa è dotata di un sofisticato sistema d’intelligenza artificiale che le permette di interpretare i segnali che le arrivano dai propri sensori ottici, infrarossi, laser e radar, elaborarli secondo la propria programmazione, prendere decisioni “intelligenti” e mettere fisicamente in atto la propria risposta. Insomma, individua gli esseri umani fino a 3 km di distanza all’interno della zona demilitarizzata e decide autonomamente se distruggerli o meno. Domanda: come potrebbero distinguere tra una pattuglia armata che tenta un blitz dietro le linee sudcoreane e famiglie di dissidenti nordcoreani che fuggono dal regime?

L’IA in ambito militare preoccupa sia la società civile che quella politica a livello mondiale.

Attenzione. Sulla pericolosità sono d’accordo anche i big come Putin che riconoscono l’IA come “una colossale fonte di opportunità, ma anche di minacce difficili da prevedere”. Ma nella loro “maniacale grandezza” non si sottraggono in quanto, secondo sempre il Cremlino, “la nazione leader in questo campo guiderà il mondo”. Insomma, la Russia non vuole oggi che gli Usa abbiano il monopolio dell’IA come ieri delle testate atomiche. Ma il problema sta proprio nell’abbinamento tra IA e nucleare.

Non serve analizzare gli attori della guerra fredda per comprendere quanto l’IA ci riguardi. Basta consultare gli atti del nostro Parlamento. Rete Italiana per il Disarmo (membro della Campagna Stop Killer Robots e di ICAN – Premio Nobel 2017) invitò nel maggio 2017 i parlamentari a sostenere una risoluzione presentata dal deputato Stefano Quintarelli di Scelta Civica che chiese al governo di sostenere una moratoria su sistemi letali di armi autonome. Mozione che è stata fatta in parte propria dal PD e approvata. Dall’altra parte dell’emiciclo, la Lega Nord, sempre più filo Putin, suggerì che il settore della difesa italiano riservasse spazio alla futura produzione di sistemi di armi autonome letali.

Ma la vera e propria guerra diplomatica fatta di “vittorie” e “sconfitte amare” ha avuto e sta avendo corso dentro e fuori il Palazzo di Vetro per tutto il 2017.

L’anno, infatti, iniziò al meglio in quanto l’Assemblea generale dell’ONU aveva appena approvato, a fine 2016, il “diritto alla pace” tanto voluto e cercato dal prof. Antonio Papisca dell’Università di Padova con l’incredibile e altrettanto vergognosa astensione dell’Italia. Regista è stata la bravissima ambasciatrice cubana Rodríguez Camejo, nello sfruttare il clima di larga soddisfazione creatosi a seguito della firma a Cuba, il 23 giugno 2016, dell’accordo di pace tra il governo di Colombia e i rappresentanti delle FARC. Incredibile la lettura della lista dei favorevoli e dei contrari. Tra i primi appaiono Paesi come l’Arabia Saudita, Cina e Venezuela, mentre tra i contrari l’Olanda (sede del Tribunale Internazionale).

Non è finita. Tra metà giugno e il 7 luglio passa a larga maggioranza il “Trattato per l’abolizione delle armi nucleari”. L’Occidente dei diritti umani tanto proclamati (Paesi Nato) è avverso e dimostra tutta la sua ipocrisia e l’Italia, ancor più vergognosamente per non dispiacere a Trump, non partecipa al voto. Esulta la società civile organizzata a livello transnazionale che fa riferimento a ICAN (Campagna internazionale per l’abolizione delle armi nucleari).

Durissima la reazione della Casa Bianca: “Il Trattato ONU sull’eliminazione delle armi nucleari è destinato a fallire. Chi le possiede non vi rinuncerà. L’annuncio odierno non sposta gli Usa dalla loro posizione sul trattato: non lo sosterranno e non lo firmeranno. Vi è un deterioramento nella sicurezza globale e una crescita nella capacità nucleare di alcuni Stati. Il Trattato non renderà il mondo più sicuro, non porterà all’eliminazione di un solo ordigno atomico e non migliorerà la sicurezza di un solo Stato. Piuttosto, rischia di minare gli attuali sforzi per indirizzare la proliferazione globale e le sfide alla sicurezza”. Oslo da’ una mano a ICAN e assegna il 5 ottobre il Premio Nobel per la Pace.

Alle Nazioni Unite

Ad agosto 2017 ben 116 esperti internazionali di robotica, tra cui Elon Musk (fondatore di TeslaSolarcity e PayPal) scrissero una lettera aperta alle Nazioni Unite: “Le armi autonome letali minacciano di diventare la terza rivoluzione nel comparto bellico. Se saranno sviluppate, i conflitti armati verranno combattuti a un livello più ampio che mai e con una tempistica più veloce di quanto gli esseri umani possano comprendere. Saranno armi del terrore, armi che dittatori e terroristi useranno contro la popolazione innocente o armi hackerate in modo da funzionare come non dovrebbero. Non abbiamo molto tempo per agire. Quando questo vaso di Pandora verrà aperto, sarà difficile richiuderlo”. Insomma, per Musk, l’IA è più pericolosa della Corea del Nord.

Alcuni video diffusi dai CEO di queste holding della robotica online scuotono la società civile. Gli Stati confinari, burocrati, con diritto di veto al Consiglio di Sicurezza e con testate nucleari, nonostante i soldi profusi da altre lobby, si accorgono di non avere più il controllo dell’Assemblea e non vogliono affatto rallentare la ricerca in ambito IA Non possono avere alcun veto dal palazzo di vetro in quanto metterebbero in fermento le società civili dei propri Paesi. La parola d’ordine, riguardo IA in ambito militare, è non votare, burocratizzare, togliere i fondi ai gruppi di lavoro, procrastinare. Insomma, non legiferare. Nelle conferenze stampa e dichiarazioni pubbliche fare l’esatto contrario: rasserenare, indicare la ricerca come fondamentale (con ricadute nel civile) ecc., ecc.

A questo punto i 100 Stati del gruppo dei Non Allineati, che conoscono molto bene le dinamiche di palazzo, formalizzano la domanda per una nuova legge internazionale che stabilisca divieti e regolamenti sui sistemi letali di armi autonome. I favorevoli all’IA e al nucleare, pur continuando a fare “buon viso a cattivo gioco”, iniziano a denti stretti il percorso di legiferazione. Burocratizzandolo. Le risorse per il comitato di esperti (CCW) che deve redigere l’articolato prima arrivano in ritardo e poi scompaiono.

Nobel per la pace

L’11 novembre 2017 sei Premi Nobel per la pace vengono invitati in Vaticano dalla Santa Sede al fine di porre con forza la domanda: “È giusto dare alle macchine la capacità di uccidere gli umani?”. Papa Francesco non è andato per il sottile definendo le armi nucleari a guida IA: “illegali, immorali e illogiche”! Il Simposio produce dei risultati tangibili: Brasile, Iraq e Uganda si uniscono ad Algeria, Argentina, Bolivia, Brasile, Cile, Costa Rica, Cuba, Ecuador, Egitto, Ghana, Guatemala, Santa Sede, Iraq, Messico, Nicaragua, Pakistan, Panama, Perù, Palestina, Venezuela e Zimbabwe per chiedere a gran voce il divieto dell’IA in ambito militare.

Ora siamo a inizio anno con la speranza che vi siano nuove buone. Non si può continuare a confidare nei militari come Stanislav Petrov o che non vi siano incidenti.

Vi sono 15.000 atomiche al mondo. Intelligenza, questa volta non artificiale, vorrebbe ridurre drasticamente il numero in quanto, per dirla con papa Francesco, sono illegali, immorali e illogiche! Alle 3 “I” ne aggiungo una quarta: “Imbecilli”.


Mosaico di pace, rivista promossa da Pax Christi Italia e fondata da don Tonino Bello, si mantiene in vita solo grazie agli abbonamenti e alle donazioni.
Se non sei abbonato, ti invitiamo a valutare una delle nostre proposte:
https://www.mosaicodipace.it/index.php/abbonamenti
e, in ogni caso, ogni piccola donazione è un respiro in più per il nostro lavoro:
https://www.mosaicodipace.it/index.php/altri-acquisti-e-donazioni