Cerca

Un gruppo di droni armati Un gruppo di droni armati

La Santa Sede: vietare le “armi autonome letali”, subito una moratoria

L’arcivescovo Ettore Balestrero, osservatore permanente della Santa Sede alle Nazioni Unite e le Organizzazioni internazionali a Ginevra, è intervenuto sul tema durante un confronto del Gruppo di esperti governativi, ribadendo che gli armamenti guidati dall’Intelligenza artificiale non dovrebbero “mai scegliere di togliere la vita a un essere umano”

Alessandro Di Bussolo - Città del Vaticano

Per la Santa Sede è “della massima urgenza” fornire uno “solido strumento giuridicamente vincolante” che vieti l’uso delle cosiddette “armi autonome letali”, e nel frattempo, “stabilire una moratoria immediata sulla loro sviluppo e utilizzo”. Lo ha sottolineato l’arcivescovo Ettore Balestrero, osservatore permanente della Santa Sede alle Nazioni Unite e le Organizzazioni internazionali a Ginevra, nel suo intervento alla seconda sessione del Gruppo di esperti governativi (Gge) 2024 sulle tecnologie emergenti nel settore dei sistemi d'arma autonomi letali (Laws), in corso nelle città svizzera dal 26 al 30 agosto.

Il discorso del Papa al G7 sull'Intellidenza artificiale

Citando il discorso di Papa Francesco sull’Intelligenza artificiale ai leader del G7 riuniti in Italia, a Borgo Egnazia, il 14 giugno scorso, Balestrero ha ricordato che il Papa li ha esortati a “riconsiderare lo sviluppo e l’uso di dispositivi come le cosiddette ‘armi autonome letali’ e, infine, a vietarne l’uso. Ciò parte da un impegno efficace e concreto per introdurre un controllo umano sempre maggiore e adeguato. Nessuna macchina dovrebbe mai scegliere di togliere la vita a un essere umano”. Per il presule, invece, oggi i campi di battaglia stanno “diventando anche terreni di prova per armi sempre più sofisticate”.

L'arcivescovo Ettore Balestrero
L'arcivescovo Ettore Balestrero

Le armi autonome non sono entità moralmente responsabili

La Santa Sede, ha proseguito l’arcivescovo, approva e sostiene l’approccio del Gruppo di esperti “all'analisi delle potenziali funzioni e degli aspetti tecnologici dei sistemi d'arma autonomi”, perché identificare i sistemi “incompatibili con il diritto internazionale umanitario e altri obblighi internazionali esistenti”, potrebbe essere di grande utilità per stabilire divieti e restrizioni, “tenendo conto di considerazioni etiche più ampie”. Per la Santa Sede, ha chiarito l’osservatore permanente, “i sistemi d’arma autonomi non possono essere considerati entità moralmente responsabili”. Infatti la persona umana, dotata di ragione, “possiede una capacità unica di giudizio morale e di presa di decisioni etiche che non può essere replicata da nessun insieme di algoritmi, non importa quanto complessi”. Quini la delegazione della Santa Sede apprezza i riferimenti sia al “controllo appropriato” che "giudizio umano" nel “testo scorrevole” stilato come base del dibattito della sessione, anche se chiede “una maggiore chiarezza e una comprensione comune di questi termini”.

Una macchina sceglie, l'uomo decide col cuore

Per questo monsignor Balestrero ha ricordato la differenza tra “scelta” e “decisione”. Nel discorso al G7 di Borgo Egnazia, il Pontefice, sottolineando che le macchine si limitano a produrre scelte tecniche algoritmiche, ha ricordato che “l’essere umano, però, non solo sceglie, ma nel suo cuore è capace di decidere”. E questo è un elemento più strategico di una scelta, perché richiede una valutazione pratica. Inoltre, proseguiva Papa Francesco, “una decisione etica è quella che tiene conto non solo dei risultati di un'azione ma anche dei valori in gioco e dei doveri che essa comporta”. Per questo, citando ancora il discorso del Papa, l’arcivescovo ha ribadito che per la Santa Sede è necessario “assicurare e salvaguardare uno spazio per un adeguato controllo umano sulle scelte effettuate dai programmi di intelligenza artificiale: da ciò dipende la stessa dignità umana”.

I progressi della tecnica siano al servizio del bene comune

Il rappresentante vaticano ha poi sottolineato che sta crescendo nel mondo “la consapevolezza delle preoccupazioni etiche sollevate dall’utilizzo dell’intelligenza artificiale come arma”. Lo testimonia anche il ruolo di primo piano assegnato alle considerazioni etiche nella recente conferenza “L’umanità al bivio: sistemi di armi autonome e la sfida della regolamentazione” tenuta a Vienna il 29 e 30 aprile 2024. E ha concluso ricordando che “lo sviluppo di armi sempre più sofisticate non è certo la soluzione”. I benefici che l’umanità potrà trarre dall’attuale progresso tecnologico, dipenderanno, come scrive Francesco nell’Enciclica Laudato si', “dalla misura in cui tale progresso sarà accompagnato da un adeguato sviluppo di responsabilità e di valori che pongano i progressi tecnologici al servizio dello sviluppo umano integrale e del bene comune”.

Grazie per aver letto questo articolo. Se vuoi restare aggiornato ti invitiamo a iscriverti alla newsletter cliccando qui

29 agosto 2024, 14:46