Quando una macchina diviene protagonista di un vero e proprio processo decisionale.
E le frontiere rompono gli argini.
Quali scenari davanti alla scienza?
L’Intelligenza Artificiale è uno di quegli argomenti che in breve tempo si è imposto all’attenzione generale suscitando curiosità e molti interrogativi, ma il primo problema si pone già a partire dal nome. Infatti, parlando di intelligenza, se si va a cercarne la definizione, ci si accorge che non si tratta di qualcosa di facilmente delineabile. Seguendo il dizionario Treccani troviamo quanto segue: “Complesso di facoltà psichiche e mentali che consentono all’uomo di pensare, comprendere o spiegare i fatti o le azioni, elaborare modelli astratti della realtà, intendere e farsi intendere dagli altri, giudicare, e lo rendono insieme capace di adattarsi a situazioni nuove e di modificare la situazione stessa quando questa presenta ostacoli all’adattamento; propria dell’uomo, in cui si sviluppa gradualmente a partire dall’infanzia e in cui è accompagnata dalla consapevolezza e dall’autoconsapevolezza, è riconosciuta anche, entro certi limiti (memoria associativa, capacità di reagire a stimoli interni ed esterni, di comunicare in modo anche complesso, ecc.), agli animali…”. Già dalle prime righe, emerge che l’intelligenza viene considerata una facoltà umana, il che basterebbe a far considerare fuorviante la locuzione stessa di “intelligenza artificiale”. Tale affermazione trova un fondamento scientifico nel fatto che anche gli studi più recenti confermano che solo l’essere umano è capace di pensiero simbolico e astratto; in assenza di questa componente, l’intelligenza animale, e con essa quella informatica, si restringerebbe quindi alla capacità di reagire, anche in modo complesso, a degli stimoli, ma restando del tutto priva della capacità di elaborare un pensiero simbolico e astratto.
Intelligenza umana
L’intelligenza umana, in definitiva, è una realtà così sfuggente che qualsiasi idea di una sua misura si dimostra arbitraria. Anche i noti test del quoziente di intelligenza (QI) sono stati, infatti, ampiamente criticati in quanto scientificamente insoddisfacenti e, per rendersene conto, basti considerare che non esiste un’unità di misura dell’intelligenza e, come è noto, però, non si possono fare misure senza prima avere individuato un’unità di base. I test del QI, quindi, si riducono in definitiva a dei criteri per valutare quanto il modo di pensare del soggetto sottoposto alla prova coincida col pensiero di chi l’ha ideata.
Queste premesse ci pongono nella condizione di valutare cosa effettivamente si possa indicare con la nuova realtà denominata Intelligenza Artificiale. Le definizioni correnti si possono ricondurre a quella che negli anni Cinquanta, cioè sin dall’inizio della questione, diede il grande logico e matematico Alan Touring come un computer in grado di produrre prestazioni che a un osservatore umano potrebbero sembrare frutto di un altro essere umano.
In un recente documento prodotto dalla più importante produttrice di sistemi operativi, la Microsoft, la definizione viene così aggiornata: “Alla Microsoft pensiamo all’IA come a un insieme di tecnologie che rendano i computer in grado di percepire, imparare, ragionare e assistere nel processo decisionale per risolvere i problemi in modo simile a quello che fanno le persone. Con queste capacità, il modo in cui i computer comprendono e interagiscono con il mondo comincia a essere avvertito come molto più naturale e reattivo rispetto al passato, quando i computer potevano solo seguire le routine pre-programmate”.
Esclusa una capacità di intelligenza reale, intesa come capacità umana di porsi degli obiettivi frutto di un pensiero astratto tipico della filosofia, l’IA viene delineata nel documento della Microsoft come qualcosa in grado di assistere l’intelligenza umana e migliorare le sue capacità decisionali. Un impiego che in questi termini avrebbe l’effetto di moltiplicare delle facoltà umane già esistenti, cosa che del resto caratterizza tutte le macchine sinora inventate da quelle industriali a quelle di trasporti alla stessa potenza di calcolo introdotta dai computer. Il discorso diventa molto diverso quando nella frase, subito dopo la parola “assistere”, troviamo l’affermazione “risolvere i problemi in modo simile a quello che fanno le persone”.
Risolvere problemi
Si tratta qui di non limitarsi ad assistere una volontà umana a svolgere un compito, ma di mettere la macchina in condizione di “risolvere i problemi”, cioè emerge una capacità di porla in condizione di compiere un processo decisionale completo, dove l’azione risolutrice della macchina non prevede più l’intervento umano.
Ecco che si delinea un problema di grandissima rilevanza, poiché una macchina non può elaborare degli obiettivi in senso etico: il fine del suo operare dovrà sempre essere stabilito nella programmazione secondo l’etica che il programmatore avrà stabilito. Come dire che si potrebbe ottenere un dispositivo in grado di applicare nel modo più automatico qualsiasi disposizione, scavalcando quell’importantissima caratteristica di ogni essere umano, che è la discrezionalità che può spingersi fino all’obiezione di coscienza.
In un mondo in cui fosse diffuso l’impiego di IA con poteri decisionali ed esecutivi non si avrebbero più casi medici o militari obiettori di fronte a un ordine che violasse palesemente i loro principi etici.
Ma un problema ancor più serio si porrebbe nel caso in cui le capacità di apprendimento del sistema fossero applicate non solo allo studio dei problemi e delle situazioni ma anche all’affinamento degli obiettivi proposti.
Molti anni fa fu pubblicato un racconto di fantascienza in cui delle macchine erano state programmate per prevenire gli omicidi; la loro capacità di comprendere le situazioni cresceva grazie proprio all’IA fino al punto in cui nessun omicidio poteva più essere commesso. La capacità di imparare, però, si spingeva sempre più verso elevati e incontrollabili livelli di sofisticazione fino a quando fu reso impossibile ai cittadini persino uccidere una mosca senza venire colpiti e puniti.
Una programmazione adatta ad apprendere avrebbe, quindi, in sé le potenzialità di un “effetto farfalla”, quell’esempio per cui nella teoria del caos un evento di minima importanza potrebbe risultare alla fine amplificato a dismisura, provocando effetti del tutto inattesi. In questo caso, il rischio sarebbe che una programmazione, che fosse eseguita anche con le migliori intenzioni, possa finire con l’avere sviluppi imprevedibili e potenzialmente drammatici.
Questo rischio, unito a capacità già reali dell’informatica applicata alle tecnologie militari, è in grado di evocare autentici scenari da incubo.
Al riguardo, un gruppo chiamato “Stop Autonomous Weapons” ha realizzato un sito dove una immaginaria ma realistica compagnia denominata “Strato Energetics” fornisce prodotti per la sorveglianza e le missioni di pace ed è basata sull’impiego di piccoli droni che reclamizza evidenziandone le capacità di poter colpire qualsiasi obiettivo umano in modo precisissimo, impiegando la capacità di riconoscimento del volto che è stata introdotta in uso nel cellulare IPhone X.
La visione di un video dove si simula l’azione di questo tipo di droni (https://youtu.be/TBKmzL1WkSs) è estremamente efficace e rende con cruda chiarezza il pericolo a cui si va incontro.
Allo stato attuale non è lontano il momento in cui questo tipo di armi potrebbero essere operative: in tal senso, il pericolo è così grande che una delle personalità più rappresentative del mondo delle nuove tecnologie, Elon Musk, colui che ha realizzato le autovetture Tesla e i missili Space X, nell’agosto 2017 ha riunito 116 fondatori di compagnie di robotica e AI per redigere un documento nel quale si chiede la messa al bando della produzione di armi a intelligenza artificiale.
Tra bene e male
Come ogni grande sviluppo tecnologico, l’IA dimostra in tutta la pienezza delle sue potenzialità di poter essere un’amplificazione della capacità umana di compiere il bene e il male, dal coltello che può essere impiegato per sbucciare una mela o per compiere un assassinio all’energia atomica che può servire per fare una bomba o produrre energia elettrica è stato sempre così. Adesso, però, siamo di fronte a qualcosa di assolutamente nuovo nella storia dell’umanità, e cioè la possibilità che uno strumento di grandissima potenza possa non solo amplificare la possibilità umana di compiere il male, sia a livello legale che di criminalità, ma che possa giungere a compiere azioni delittuose in seguito a un’imprevedibile elaborazione autonoma dei propri obiettivi.