Santa Sede: no ad armi autonome letali. Vita non può essere affidata ad algoritmi
Roberta Gisotti – Città del Vaticano
L’ultima riunione a fine agosto a Ginevra si è conclusa con un nulla di fatto per arrivare ad un accordo vincolante, ed ora si aspetta la prossima tornata di colloqui in novembre. Intanto la società civile preme per una presa d’atto dei rischi di queste armi (Laws). Ben 76 organizzazioni non governative di 32 Paesi hanno lanciato già nel 2013 la campagna “Stop ai killer robot”, chiedendone il bando e tra queste vi sono non solo ong pacifiste ma anche di esperti di armi, come l’Unione degli scienziati per il disarmo (Uspid). La Santa Sede segue da vicino i colloqui internazionali su queste armi portando il suo contributo al dibattito per voce dell’arcivescovo Ivan Jurkovič
Ma quali sono i nodi da sciogliere?
R. Durante l’ultima sessione alcune delegazioni che dispongono di tecnologie già molto avanzate nel campo dell’intelligenza artificiale, hanno insistito per mantenere lo status quo, ovvero prolungare la discussione a livello di esperti. Altre invece, hanno dichiarato la necessità di adottare uno strumento giuridicamente vincolante per una proibizione preventiva. Altri hanno proposto di formalizzare una dichiarazione politica che, in quanto tale, non sarebbe giuridicamente vincolante.
Tutte queste proposte hanno in comune la necessità di un approccio multilaterale e la necessità di mantenere la persona umana responsabile per le decisioni in cui viene impiegato l’uso della forza. Tuttavia, uno dei nodi principali, anche alla luce degli enormi investimenti che alcuni Paesi stanno effettuando, è che la ricerca e lo sviluppo per applicazioni ‘pacifiche’ della tecnologia, non vengano affette da una regolamentazione delle applicazioni militari. Purtroppo, questo viene spesso utilizzato come una scusa al fine di bloccare avanzamenti nel negoziato.
Perché queste armi cosiddette ‘intelligenti’ preoccupano tanto la società civile, cosa le differenzia da altre armi?
R. La robotizzazione e la disumanizzazione della guerra pone seri problemi per la responsabilità diretta dell'uso della forza. I sistemi di armi letali autonome sollevano diverse questioni e contraddizioni etiche e legali. La scelta degli obiettivi da attaccare e della decisione sulla vita e sulla morte, comporta un’importante responsabilità per qualsiasi essere umano e implica un lungo processo morale. Chi sarebbe responsabile per le uccisioni e le violazioni perpetrate da questi sistemi di armi se questi possono funzionare in maniera autonoma? Come possiamo garantire che il diritto internazionale umanitario venga pienamente rispettato in tutte le circostanze se non è coinvolto un agente umano nel processo decisionale?
È positivo il fatto che a livello di società civile vi sia una crescente consapevolezza dei rischi inerenti ai sistemi di armi autonome, anche all'interno della comunità scientifica, che ha presentato diversi contributi al Gruppo di esperti, denunciando i possibili rischi. Un mondo in cui sistemi autonomi verrebbero lasciati a gestire, in modo rigido o casuale, domande fondamentali relative alla vita degli esseri umani e del futuro delle nazioni, ci condurrebbe impercettibilmente alla disumanizzazione e a un indebolimento dei legami di una vera e duratura fratellanza della famiglia umana.
Come in tutti i negoziati per limitare le armi la strada sarà lunga, quali passi intermedi per arrivare infine ad un bando condiviso, propone la Santa Sede?
R. La Santa Sede partecipa alla discussione in maniera molto attiva, contando anche sull’appoggio di diversi esperti, guidata dal dovere morale di incoraggiare una cooperazione responsabile e un dialogo fra tutti i membri della famiglia delle nazioni. Per questo, si è insistito sin dall’inizio sull’importanza di sviluppare un quadro etico comune, basato sul principio di "non-contraddizione antropologica" per assicurare che qualunque azione militare che metta in pericolo l’essere umano debba essere guidata dall’uomo, responsabile. Il rispetto della persona umana, come essere razionale e libero , è anche un modo per garantire il rispetto dell’autorità politica. Un sistema autonomo non può avere intenzioni ed emozioni ma meramente segue ed implementa algoritmi.
Questo approccio ha implicazioni molto pratiche: se si delegano importanti poteri decisionali a una macchina il cui comportamento è autonomo o il cui campo operativo non è ben definito o conosciuto (cioè ha capacità di apprendimento automatico), il nesso cruciale di azione / responsabilità sarebbe inevitabilmente messo a repentaglio.
Questa richiesta di regole internazionali non arriva tardi quando gli investimenti nella ricerca e nella produzione di queste armi sono già molto cospicui in tanti Paesi?
Certamente, gli interessi economici delle industrie, e la ricerca del prevalere sui competitori diretti, sono variabili importanti che, come in ogni settore, contribuiscono a creare una ‘resistenza’ circa una regolamentazione internazionale. Purtroppo, una cosa è certa: lo sviluppo di sistemi di armi letali autonome fornirà la capacità di alterare in modo irreversibile il modo di condurre i conflitti, rendendoli ancor più disumani e creando un’inevitabile spirale di insicurezza e instabilità. Un sistema di armi autonomo non potrà mai essere un soggetto moralmente responsabile; la capacità umana di giudizio morale non è riducibile a una serie di algoritmi e non può certamente essere sostituita o programmata autonomamente in una macchina.
Grazie per aver letto questo articolo. Se vuoi restare aggiornato ti invitiamo a iscriverti alla newsletter cliccando qui