Benanti: um documento que nos ajuda a fazer as perguntas certas
Andrea Tornielli
“Um documento que nos diz: talvez este seja o momento de se fazer perguntas antes mesmo de dar respostas”. Com essas palavras, Padre Paolo Benanti - professor da Universidade Gregoriana de Roma, especialista em ética e bioética das tecnologias, presidente da Comissão para o estudo do impacto da inteligência artificial no jornalismo e na editoria da Presidência italiana do Conselho de Ministros - “fotografa” a Nota “Antiqua et Nova” dos Dicastérios da Doutrina da Fé e da Cultura sobre a relação entre inteligência artificial e inteligência humana. Assim ele comenta o assunto com a mídia do Vaticano.
LEIA AQUI O TEXTO INTEGRAL DA NOTA "ANTIQUA ET NOVA"
Em sua opinião, qual é a novidade deste documento?
É uma tomada de consciência por parte do pensamento crente que também tem o objetivo de acompanhar a Igreja na vida da sociedade. Quanto mais nos questionamos sobre essa máquina capaz de substituir parte da decisão humana, mais inevitavelmente nos questionamos sobre a própria identidade do ser humano e a singularidade que o caracteriza, ou seja, sobre o que nos torna criaturas em relação com um Criador. A verdadeira novidade desse texto é nos colocar na perspectiva correta para fazer perguntas sobre nossa identidade e nossa capacidade de contribuir para a custódia e o cultivo do mundo que nos foi confiado pelo Criador.
Então a inteligência artificial se torna uma oportunidade de se fazer perguntas sobre o que realmente somos?
Essa é uma grande notícia: pensemos que até 10 ou 15 anos atrás, esse tipo de pergunta sobre o ser humano parecia eclipsado. Tínhamos decisões políticas que efetivamente equiparavam certas espécies de grandes macacos à pessoa humana ou que negavam a identidade de pessoa ao embrião ou àqueles que viviam a fase terminal de suas vidas. O que parecia ser uma questão a ser arquivada no passado, de repente, graças ao trabalho da humanidade, volta com força ao debate público e ao interesse global. Essa questão tem um duplo significado: por um lado, é antropológica, como bem enfatizado no documento; por outro lado, sem dúvida, tem consequências sociais e, portanto, já podemos imaginar que será desenvolvida dentro da estrutura da doutrina social da Igreja.
Qual é a diferença entre a chamada inteligência artificial e a inteligência humana?
É precisamente a natureza humana - que é difícil de conter em uma definição ou perímetro predeterminado - que nos leva a dizer que, quando falamos do homem, estamos falando de algo que é mais fácil de descrever em muitas de suas dimensões. Se pensarmos em como os gregos falavam de inteligência, devemos reconhecer que as palavras eram “plurais”: Ulisses é definido como "astuto", “inteligente”, com a palavra metis indicando uma forma de inteligência capaz de encontrar soluções para problemas práticos. Quando se fala em inteligência capaz de compreender o significado do todo, os gregos usam a palavra nous. Aqui, já nas matrizes do pensamento ocidental, temos uma inteligência humana plural, capaz de seguir em várias direções. A inteligência artificial não substitui todas essas formas de inteligência: ela é muito boa em ganhar jogos, em encontrar soluções, é capaz de um grande metis. Mas o nous, aquilo que busca o significado do todo e é capaz de orientar nossas vidas em direção a um horizonte, um futuro ou até mesmo a transcendência, isso é apenas humano.
O que temos a temer das aplicações da inteligência artificial?
Se me permitir fazer uma brincadeira, eu diria que a primeira coisa a temer é a estupidez natural. Porque a máquina não se substitui a si mesma: somos sempre nós que, como resultado de cálculos ou tentativas de otimizar determinados processos, poderíamos usar a máquina, fazendo-a escolher em vez do homem. E uma máquina tão poderosa, capaz de escolher entre infinitas opções em frações de segundo, nem sempre é capaz de substituir o que é humanamente chamado de decisão, ou seja, algo ligado à sabedoria. Aqui está toda a ambivalência da IA capaz de fazer coisas com grande velocidade e eficiência, enquanto o homem, por outro lado, é chamado a questionar o significado. Talvez pudéssemos ou devêssemos temer todas as escolhas que não acessam as decisões. Pensemos, por exemplo, na esfera médica: um diagnóstico nunca é simplesmente uma escolha entre terapias, mas uma tomada de controle de uma existência humana por outra existência humana que implicitamente lhe faz uma promessa de cura. Devemos temer todas as situações em que experimentaríamos uma diminuição da humanidade para permitir um aumento da “maquinalidade”. E, em vez disso, promover todas as aplicações que mantenham viva essa responsabilidade humana.
O documento enfatiza muito sobre a responsabilidade humana e sobre a necessidade de responsabilizar sobre a decisão tomada. Por quê?
Há duas vertentes principais que dão origem à bela resposta desse documento. Há uma vertente que parte da perspectiva da fé e questiona qual é a especificidade humana a partir da perspectiva da consciência. A constituição conciliar Gaudium et Spes nos fala daquele lugar íntimo dentro de nós onde ouvimos uma voz que nos diz em certos momentos: faça isso e evite aquilo. É o santuário onde o homem ouve a voz de Deus. Aqui está a matriz da responsabilidade. Mas, dentro dessa consciência crente, há também toda uma consciência do efeito da remoção da responsabilidade da tomada de decisões humanas. Grandes escritores, como Hannah Arendt, falaram sobre como, nos grandes massacres do século passado, foi feita uma tentativa de subtrair a responsabilidade da tomada de decisão humana para se tornar parte de uma engrenagem que leva à máxima desumanização pessoal e social. Essas duas capacidades humanas, fé e razão, apertando as mãos, podem nos ajudar a ver como inovar a inteligência artificial para que ela possa realmente se tornar uma fonte de desenvolvimento humano.
Infelizmente, continuamos a ver o papel das armas autônomas. O que podemos dizer sobre a aplicação da inteligência artificial na guerra?
Pense em nós há 60 mil anos, quando pegamos um porrete pela primeira vez em uma caverna. Era uma ferramenta para obter mais cocos e uma arma para abrir mais crânios do que as outras pessoas. Toda vez que nos deparamos com a tecnologia, somos confrontados com a tentação de transformar uma ferramenta em uma arma. Mas também estamos inseridos em uma história de salvação - lembre-se do profeta Isaías - na qual as armas podem se tornar ferramentas para cultivar, alimentar e dar vida. Nesta nossa história de pecado e conversão, aqueles que fazem a guerra têm uma tentação muito forte de usar ferramentas com uma tecnologia tão poderosa. Deixe-me lembrá-lo de que a IA não é a primeira forma de tecnologia autônoma usada na guerra. Pense nas minas antipessoais: elas são autônomas! Um sistema de IA pode ser definido como algo que pode obter um fim do ser humano e, em seguida, adaptar os meios para atingir esse fim. No entanto, nunca antes vimos que todos os meios não são iguais: desde a grande tragédia atômica, percebemos que há meios que devem ser evitados a todo custo. Uma máquina, ao contrário de um ser humano, nunca se cansará de perseguir seu objetivo e, portanto, talvez nunca haja uma trégua se dependermos apenas das máquinas. Quanto maior a capacidade humana, mais radicais serão as perguntas que teremos de responder.
Na sua participação no G7 no ano passado, o Papa Francisco disse que a decisão de tirar uma vida humana nunca deve ser deixada para uma máquina.
Uma voz profética a do Papa. Uma voz muito forte que aponta uma direção. Precisamos de extrema precaução, ou melhor, para usar as palavras do documento, de extrema responsabilidade.
Atualmente, a inteligência artificial permite falsificar a representação da realidade. Pense em imagens falsas ou retocadas que são cada vez menos distinguíveis das reais. Ou a disseminação maciça de fake news. Como podemos combater esses desvios?
Parece que, para alguns, a verdade se tornou algo secundário e que narrativas completamente desvinculadas dos fatos são possíveis. Todas as democracias ocidentais são baseadas em uma premissa fundamental: elas podem existir como democracias se as pessoas puderem formar uma opinião correta sobre os fatos. Assim, a democracia confere ao jornalista quase um papel de funcionário público: seu profissionalismo é semelhante ao do cientista que busca a verdade ou do juiz que tenta estabelecer os fatos. A inteligência artificial poderia tornar certos tipos de processos de produção de informações muito mais baratos, mas não os tornaria mais verdadeiros ou mais úteis. Para viver em uma democracia, precisamos de um jornalismo profissional, e o jornalismo profissional precisa de um setor. Tudo isso pode ser prejudicado economicamente, ou destruído em sua capacidade, pela inteligência artificial nas mãos erradas ou com os propósitos errados.
Como podemos nos proteger?
O documento nos lembra da categoria-chave da responsabilidade, e há formas de responsabilidade que, no espaço público, assumem a consistência de um direito. Talvez tenha chegado o momento de insistir na existência de um direito “cognitivo” das pessoas: o de saber quais conteúdos foram elaborados por um ser humano que coloca sua responsabilidade profissional nisso e quais foram produzidos por uma máquina. Talvez precisemos definir algumas barreiras para manter o serviço à verdade da informação e do jornalismo nos trilhos. O documento nos diz que talvez este seja o momento de se fazer perguntas antes mesmo de dar respostas.
Obrigado por ter lido este artigo. Se quiser se manter atualizado, assine a nossa newsletter clicando aqui e se inscreva no nosso canal do WhatsApp acessando aqui