Busca

Cookie Policy
The portal Vatican News uses technical or similar cookies to make navigation easier and guarantee the use of the services. Furthermore, technical and analysis cookies from third parties may be used. If you want to know more click here. By closing this banner you consent to the use of cookies.
I AGREE
Andante comodo
Programação Podcast
Publicado hoje, 28 de janeiro, o texto foi aprovado pelo Papa Francisco. Publicado hoje, 28 de janeiro, o texto foi aprovado pelo Papa Francisco.  (REUTERS)

IA é uma oportunidade, mas o homem pode se tornar escravo das máquinas

Foi publicada a Nota sobre a relação entre Inteligência Artificial e inteligência humana dos Dicastérios para a Doutrina da Fé e para a Cultura e Educação: “A IA não é uma forma artificial de inteligência, mas um dos seus produtos”. São destacadas as potencialidades e os desafios nos campos da educação, economia, trabalho, saúde, relações humanas e internacionais, bem como em contextos de guerra.

Salvatore Cernuzio – Cidade do Vaticano

A Inteligência Artificial não deve ser considerada como uma pessoa, não deve ser divinizada, nem substituir as relações humanas. Deve ser utilizada “apenas como um instrumento complementar à inteligência humana”. Os alertas do Papa sobre a Inteligência Artificial nos últimos anos servem de guia para a Antiqua et Nova (em referência à “sabedoria”, antiga e nova), a nota sobre a relação entre inteligência artificial e inteligência humana, fruto da reflexão mútua entre o Dicastério para a Doutrina da Fé e o Dicastério para a Cultura e a Educação. O documento é dirigido a pais, professores, sacerdotes, bispos e a todos os que são chamados a educar e transmitir a fé, mas também àqueles que compartilham a necessidade de um desenvolvimento científico e tecnológico “a serviço da pessoa e do bem comum” [5]. Publicado hoje, 28 de janeiro, o texto foi aprovado pelo Papa Francisco.

Ouça e compartilhe

Em 117 parágrafos, a Antiqua et Nova destaca os desafios e as oportunidades do desenvolvimento da Inteligência Artificial (IA) nos campos da educação, economia, trabalho, saúde, relações internacionais e interpessoais, além de contextos de guerra. Neste último, por exemplo, as potencialidades da IA – adverte a Nota – poderiam aumentar os recursos bélicos “muito além do alcance do controle humano”, acelerando “uma corrida desestabilizadora por armamentos com consequências devastadoras para os direitos humanos” [99].

Perigos e progressos

Mais detalhadamente, o documento enumera com equilíbrio ponderado os perigos da IA, mas também os progressos, que, aliás, incentiva como “parte da colaboração” do homem com Deus “para levar à perfeição a criação visível” [2]. A preocupação, no entanto, é grande e decorre de todas as inovações cujos efeitos ainda são imprevisíveis, inclusive naquilo que, no momento, parece inofensivo, como a geração de textos e imagens.

Distinguir entre IA e inteligência humana

Portanto, são considerações éticas e antropológicas que estão no centro da reflexão dos dois Dicastérios, que dedicam vários parágrafos da Nota à distinção “decisiva” entre Inteligência Artificial e inteligência humana. Esta última “se exerce nas relações” [18], é modelada por Deus e “é moldada por uma miríade de experiências vividas na corporeidade”. A IA “não possui a capacidade de evoluir nesse sentido” [31]. A visão que ela oferece é “funcionalista”, avaliando as pessoas apenas com base em trabalhos e resultados, enquanto a dignidade humana é imprescindível e permanece sempre intacta. Mesmo em “uma criança ainda não nascida”, em “uma pessoa em estado não consciente” ou em “um idoso em sofrimento” [34]. É, portanto, “enganoso” usar a própria palavra “inteligência” em referência à IA: ela não é “uma forma artificial de inteligência”, mas “um dos seus produtos” [35].

Poder nas mãos de poucos

E, como todo produto do engenho humano, também a IA pode ser direcionada para “fins positivos ou negativos”, destaca a Antiqua et Nova. Não se nega que a Inteligência Artificial possa introduzir “inovações importantes” em diversos campos [48], mas há o risco de agravar situações de marginalização, discriminação, pobreza, “divisão digital” e desigualdades sociais [52]. O que levanta “preocupações éticas” em especial é o fato de que “a maior parte do poder sobre as principais aplicações da IA esteja concentrada nas mãos de poucas empresas poderosas” [53], permitindo que essa tecnologia seja manipulada para “lucros pessoais ou corporativos” ou para “orientar a opinião pública em favor dos interesses de um setor” [53].

Guerra

A Nota examina, em seguida, os vários aspectos da vida em relação à IA. Inevitável é a referência à guerra. As “capacidades analíticas” da IA poderiam ser utilizadas para ajudar as nações a buscar paz e segurança, mas um “grave motivo de preocupação ética” são os sistemas de armas autônomas e letais, capazes de “identificar e atingir alvos sem intervenção humana direta” [100]. O Papa pediu com urgência o banimento de seu uso, como afirmou no G7 na Puglia: “Nenhuma máquina jamais deveria decidir tirar a vida de um ser humano”. Máquinas capazes de matar com precisão de forma autônoma e outras aptas à destruição em massa representam uma verdadeira ameaça para “a sobrevivência da humanidade ou de regiões inteiras” [101]. Essas tecnologias “conferem à guerra um poder destrutivo incontrolável, atingindo muitos civis inocentes, sem poupar sequer as crianças”, denuncia a Antiqua et Nova. Para evitar que a humanidade caia em “espirais de autodestruição”, é indispensável “adotar uma posição firme contra todas as aplicações da tecnologia que ameaçam intrinsecamente a vida e a dignidade da pessoa humana”.

Relações humanas

Sobre as relações humanas, o documento observa que a IA pode, sim, “favorecer as conexões”, mas, ao mesmo tempo, levar a “um isolamento prejudicial” [58]. A “antropomorfização da IA” também apresenta problemas específicos para o desenvolvimento das crianças, incentivadas a entender “as relações humanas de maneira utilitarista”, como ocorre com os chatbots [60]. É “errado” representar a IA como uma pessoa, e é “uma grave violação ética” utilizá-la para fins fraudulentos. Da mesma forma, “usar a IA para enganar em outros contextos – como na educação ou nas relações humanas, incluindo a esfera da sexualidade – é profundamente imoral e exige vigilância rigorosa” [62].

Economia e trabalho

Essa mesma vigilância é exigida no campo econômico-financeiro. Em particular, no âmbito do trabalho, destaca-se que, se por um lado a IA tem “potencial” para aumentar competências e produtividade ou criar novos empregos, por outro, pode “desqualificar os trabalhadores, submetê-los a uma vigilância automatizada e relegá-los a funções rígidas e repetitivas” [67], a ponto de “sufocar” toda capacidade inovadora. “Não se deve buscar substituir cada vez mais o trabalho humano pelo progresso tecnológico: ao fazê-lo, a humanidade prejudicaria a si mesma”, ressalta a Nota [70].

Saúde

Amplo espaço é dedicado ao tema da saúde. Embora a IA possua um enorme potencial em diversas aplicações no campo médico (como o auxílio em diagnósticos), caso venha a substituir a relação médico-paciente, deixando a interação apenas para as máquinas, corre o risco de “agravar aquela solidão que frequentemente acompanha a doença”. Além disso, a otimização dos recursos não deve “prejudicar os mais vulneráveis” ou criar “formas de preconceito e discriminação” [75], que reforcem uma “medicina para os ricos”, em que pessoas com recursos financeiros usufruem de ferramentas avançadas de prevenção e informações médicas personalizadas, enquanto outros lutam para ter acesso até mesmo aos serviços básicos.

Educação

Riscos também são destacados no campo da educação. Se utilizada de forma prudente, a IA pode melhorar o acesso à educação e oferecer “respostas imediatas” aos estudantes [80]. O problema é que muitos programas “se limitam a fornecer respostas em vez de incentivar os estudantes a buscá-las por conta própria ou a escreverem seus próprios textos”; isso leva à perda do hábito de acumular informações ou desenvolver um pensamento crítico [82]. Sem esquecer a quantidade de “informações distorcidas ou artificiais” ou “conteúdos imprecisos” que alguns programas podem gerar, legitimando, assim, as fake news [84].

Fake News e Deepfake

Com relação às fake news, o documento destaca o sério risco de a IA “gerar conteúdos manipulados e informações falsas” [85], alimentando uma “alucinação” de IA, com conteúdos não verídicos que aparentam ser reais. Ainda mais preocupante é quando tais conteúdos fictícios são usados intencionalmente para fins de manipulação. Por exemplo, quando imagens, vídeos e áudios deepfake (representações alteradas ou geradas por algoritmos) são divulgados intencionalmente para “enganar ou prejudicar” [87]. O apelo, portanto, é para que se tenha sempre o cuidado de “verificar a veracidade” do que é divulgado e para evitar, em qualquer circunstância, “a disseminação de palavras e imagens degradantes para o ser humano”, excluindo “o que alimenta o ódio e a intolerância, desvaloriza a beleza e a intimidade da sexualidade humana e explora os fracos e indefesos” [89].

Privacidade e controle

Sobre privacidade e controle, a Nota evidencia que alguns tipos de dados podem chegar a tocar a intimidade da pessoa, “talvez até mesmo sua consciência” [90]. Atualmente, os dados são adquiridos com uma quantidade mínima de informações, e o perigo é transformar tudo “em uma espécie de espetáculo que pode ser espionado, vigiado” [92]. Além disso, “a vigilância digital pode ser utilizada para exercer controle sobre a vida dos fiéis e sobre a expressão de sua fé” [90].

Casa comum

No que diz respeito à Criação, as aplicações da IA são consideradas “promissoras” para melhorar a relação com a casa comum. Basta pensar nos modelos para a previsão de eventos climáticos extremos, na gestão de operações de socorro ou no suporte à agricultura sustentável [95]. Ao mesmo tempo, os modelos atuais de IA e os sistemas de hardware que os sustentam requerem “enormes quantidades de energia e água e contribuem de forma significativa para as emissões de CO₂, além de consumir recursos de forma intensiva”. É, portanto, um tributo “pesado” que se exige do meio ambiente: “O desenvolvimento de soluções sustentáveis é vital para reduzir seu impacto sobre a casa comum”.

O relacionamento com Deus

“A presunção de substituir Deus por uma obra de suas próprias mãos é idolatria”: a Nota cita as Sagradas Escrituras para alertar que a IA pode se revelar “mais sedutora do que os ídolos tradicionais” [105]. Lembra, portanto, que ela não é nada mais do que “um pálido reflexo” da humanidade: “Não é a IA que será divinizada e adorada, mas sim o ser humano, que, dessa forma, torna-se escravo de sua própria criação”. Daqui deriva uma recomendação final: “A IA deve ser utilizada apenas como um instrumento complementar à inteligência humana e não para substituir sua riqueza” [112].

Obrigado por ter lido este artigo. Se quiser se manter atualizado, assine a nossa newsletter clicando aqui e se inscreva no nosso canal do WhatsApp acessando aqui

28 janeiro 2025, 08:00
<Ant
Fevereiro 2025
SegTerQuaQuiSexSábDom
     12
3456789
10111213141516
17181920212223
2425262728  
Prox>
Março 2025
SegTerQuaQuiSexSábDom
     12
3456789
10111213141516
17181920212223
24252627282930
31