Oggi Avvenire ospita un articolo interessantissimo dell'estroso artista italo-argentino Raul Gabriel sull'intelligenza artificiale applicata alla guerra.
"La guerra – scrive Gabriel – è un beneficiario d'elezione per la narrativa epica che accompagna l'avvento delle intelligenze artificiali come un alone magico. Imaging ad altissima risoluzione, droni più umani degli umani che li guidano, bombardamenti talmente precisi che potresti tranquillamente fare colazione mentre viene raso al suolo l'ospedale di fronte al bar, cyberselezione mirata dei colpevoli, licenza di uccidere via software, che suona bene, molto più pulita". È sulla precisione che Raul Gabriel punta maggiormente l'attenzione dal momento che secondo la credenza comune negli ambienti militari, l'intelligenza artificiale è in grado di ricentrare il "bias", ovvero quella curva, quella tendenza a deviare che finora era considerata inevitabile nel centrare un obiettivo. Apparentemente – ma solo apparentemente – questa precisione ad altissima capacità tecnologica, rende eticamente accettabile l'applicazione dell'IA alla guerra. Insomma la nuova intelligenza garantisce guerre impeccabili, senza errori, effetti collaterali, sbavature tragiche. Ma è davvero così? È davvero un bene assoluto? Questo rende più accettabile i massacri?