Armi autonome, Santa Sede: le macchine non possono avere l’ultima parola sulle persone
Vatican News
La guerra ha una “natura fondamentalmente disumana” e “l’obiettivo ultimo, quello che è degno della chiamata dell'uomo e della civiltà umana, è l'abolizione della guerra”. A ribadire la “ferma convinzione” della Santa Sede è l’arcivescovo Ettore Balestrero, osservatore permanente della Santa Sede presso le Nazioni Unite e altre Organizzazioni Internazionali a Ginevra. Il nunzio è intervenuto oggi, 4 marzo, nello scambio generale di opinioni del Gruppo di Esperti Governativi (GGE) del 2024 sulle Tecnologie Emergenti nel settore dei Sistemi di Armi Letali Autonome (LAWS). Il suo intervento si è snodato a partire dal Messaggio per la Giornata Mondiale della Pace del 2024 di Papa Francesco. In particolare Balestrero ha ribadito il passaggio in cui il Pontefice afferma: “La ricerca sulle tecnologie emergenti nel settore dei cosiddetti ‘sistemi d’arma autonomi letali’, incluso l’utilizzo bellico dell’intelligenza artificiale, è un grave motivo di preoccupazione etica. Poiché conflitti e divisioni continuano a colpire l’umanità, non si possono evitare seri interrogativi etici legati al settore degli armamenti”.
Una macchina, per quanto "intelligente", rimane una macchina
“L’urgenza di questa questione sta aumentando a causa dello sviluppo diffuso e dell’uso di droni armati, compresi droni kamikaze e a sciami”, cosa che ha portato a “una minore percezione della devastazione da essi causata e della responsabilità del loro utilizzo, contribuendo a un approccio ancora più freddo e distaccato all’immensa tragedia della guerra”, ha rimarcato il rappresentante pontificio. “I sistemi di armi autonomi non possono essere considerati soggetti moralmente responsabili”, ha aggiunto. Infatti “gli esseri umani possiedono una capacità unica di giudizio morale e di decisioni etiche che non può essere replicata da un complesso insieme di algoritmi”; invece “una macchina che, per quanto ‘intelligente’, rimane pur sempre una macchina”. Il rischio è reale: “Se operano senza supervisione umana diretta, tali sistemi possono commettere errori nell’identificare i bersagli previsti a causa di pregiudizi non identificati indotti dalle loro capacità di apprendimento automatico”, ha avvertito monsignor Balestrero, invocando “un’adeguata, significativa e costante supervisione umana sui sistemi d’arma dotati di funzioni di intelligenza artificiale”. Una questione “cruciale”.
La dignità della persona e una cultura della pace
Le macchine, ha proseguito, “essendo oggetti e non soggetti, non possono veramente pensare, sentire, decidere o essere ritenute responsabili delle loro azioni. Possono solo eseguire istruzioni e simulare comportamenti umani. Pertanto, è scorretto dire che le macchine possano ‘decidere’ o ‘giudicare’”. Insomma, in altre parole, “nonostante la loro complessità, le macchine non possono avere l’ultima parola sugli esseri umani!”.
Per la Santa Sede è, dunque, urgente che il Gruppo di Esperti Governativi lavori “specificamente sul campo delle proibizioni e delle regolamentazioni dei sistemi d’arma in base al loro grado di autonomia”, tenendo saldamente al centro delle deliberazioni “il riferimento fondamentale alla dignità della persona umana”. Da qui, un ultimo monito: “Lo sviluppo di armamenti sempre più sofisticati, anche con lo scopo di ridurre i danni collaterali, non è una soluzione duratura”, ha affermato Balestrero, “proprio come qualsiasi forma di male, la guerra ha origine nel cuore umano”. Pertanto, ha concluso, “la vera soluzione risiede nella conversione a una cultura di pace che mette gli avanzamenti tecnologici al servizio dell’umanità, dello sviluppo umano integrale e del bene comune”.
Grazie per aver letto questo articolo. Se vuoi restare aggiornato ti invitiamo a iscriverti alla newsletter cliccando qui