Um grupo de drones armados Um grupo de drones armados  (ANSA)

A Santa Sé: proibir 'armas autônomas letais', imediatamente uma moratória

O arcebispo Ettore Balestrero, observador permanente da Santa Sé junto às Nações Unidas e Organizações Internacionais em Genebra, falou sobre o assunto durante uma discussão do Grupo de Especialistas Governamentais, reiterando que as armas conduzidas por Inteligência Artificial “nunca devem escolher tirar a vida de um ser humano”.

Alessandro Di Bussolo – Vatican News

Para a Santa Sé é “de extrema urgência” fornecer um “sólido instrumento juridicamente vinculativo” que proíba o uso das chamadas “armas autônomas letais” e, enquanto isso, “estabelecer uma moratória imediata sobre seu desenvolvimento e uso”. Isso foi enfatizado pelo arcebispo Ettore Balestrero, observador permanente da Santa Sé junto às Nações Unidas e às Organizações Internacionais em Genebra, em seu discurso na segunda sessão do Grupo de Especialistas Governamentais (GGE) 2024 sobre Tecnologias Emergentes na Área de Sistemas de Armas Autônomas Letais (Leis), que está sendo realizada na cidade suíça de 26 a 30 de agosto.

O discurso do Papa ao G7 sobre Inteligência Artificial

Citando o discurso do Papa Francisco sobre Inteligência artificial aos líderes do G7 reunidos em Borgo Egnazia, Itália, em 14 de junho, Balestrero lembrou que o Papa os exortou a “reconsiderar o desenvolvimento e o uso de dispositivos como as chamadas ‘armas autônomas letais’ e, eventualmente, proibir seu uso. Isso começa com um compromisso eficaz e concreto de introduzir um controle humano cada vez mais adequado. Nenhuma máquina jamais deveria escolher tirar a vida de um ser humano”. Para o prelado, no entanto, os campos de batalha de hoje “também estão se tornando campos de provas para armas cada vez mais sofisticadas”.

Arcebispo Ettore Balestrero
Arcebispo Ettore Balestrero

Armas autônomas não são entidades moralmente responsáveis

A Santa Sé, continuou o arcebispo, aprova e apoia a abordagem do Grupo de Especialistas “para a análise das funções potenciais e dos aspectos tecnológicos dos sistemas de armas autônomas”, porque a identificação de sistemas que são “incompatíveis com o direito internacional humanitário e outras obrigações internacionais existentes” poderia ser de grande utilidade no estabelecimento de proibições e restrições, “levando em conta considerações éticas mais amplas”. Para a Santa Sé, esclareceu o observador permanente, “os sistemas de armas autônomas não podem ser considerados entidades moralmente responsáveis”. De fato, a pessoa humana, dotada de razão, “possui uma capacidade única de julgamento moral e tomada de decisões éticas que não pode ser reproduzida por nenhum conjunto de algoritmos, por mais complexos que sejam”. Assim, a delegação da Santa Sé aprecia as referências tanto ao “controle apropriado” quanto ao “julgamento humano” no “texto fluido” elaborado como base para a discussão da sessão, embora peça “maior clareza e um entendimento comum desses termos”.

Uma máquina escolhe, o homem decide com o coração

É por isso que dom Balestrero lembrou a diferença entre “escolha” e “decisão”. Em seu discurso no G7 em Borgo Egnazia, o Pontífice, enfatizando que as máquinas apenas produzem escolhas técnicas algorítmicas, lembrou que “o ser humano, no entanto, não apenas escolhe, mas em seu coração é capaz de decidir”. E esse é um elemento mais estratégico do que uma escolha, porque exige uma avaliação prática. Além disso, continuou o Papa Francisco, “uma decisão ética é aquela que leva em conta não apenas os resultados de uma ação, mas também os valores em jogo e os deveres que ela implica”. Por esse motivo, ainda citando o discurso do Papa, o arcebispo reiterou que para a Santa Sé é necessário “garantir e salvaguardar um espaço para o controle humano adequado sobre as escolhas feitas pelos programas de inteligência artificial: a própria dignidade humana depende disso”.

Os avanços da tecnologia estão a serviço do bem comum

O representante do Vaticano enfatizou ainda que há uma crescente “conscientização mundial sobre as preocupações éticas levantadas pelo uso da inteligência artificial como arma”. Isso também se refletiu no papel de destaque atribuído às considerações éticas na recente conferência “Humanidade na encruzilhada: sistemas de armas autônomas e o desafio da regulamentação”, realizada em Viena nos dias 29 e 30 de abril de 2024. E concluiu lembrando que “o desenvolvimento de armas cada vez mais sofisticadas certamente não é a solução”. Os benefícios que a humanidade colherá do atual progresso tecnológico dependerão, como escreve Francisco na Encíclica Laudato si', “da medida em que tal progresso for acompanhado por um desenvolvimento adequado de responsabilidades e valores que coloquem os avanços tecnológicos a serviço do desenvolvimento humano integral e do bem comum”.

Obrigado por ter lido este artigo. Se quiser se manter atualizado, assine a nossa newsletter clicando aqui e se inscreva no nosso canal do WhatsApp acessando aqui

30 agosto 2024, 09:50