Mara de Sousa Freitas / créditos Universidade Católica Portuguesa Mara de Sousa Freitas / créditos Universidade Católica Portuguesa  (Rui Saraiva)

“Inteligência Artificial será, provavelmente, o maior desafio antropológico de todos os tempos”

Mara de Sousa Freitas é a diretora do Instituto de Bioética da Universidade Católica Portuguesa e em entrevista conjunta à Rádio Renascença e Agência Ecclesia sublinha os alertas do Papa Francisco sobre a Inteligência Artificial.

Rui Saraiva – Portugal

O tema da Inteligência Artificial está cada vez mais presente no nosso quotidiano, sendo um avanço tecnológico que abre desafios enormes à sociedade contemporânea.

Para Mara de Sousa Freitas é mesmo um “desafio gigante”. A diretora do Instituto de Bioética da Universidade Católica Portuguesa e também professora na Faculdade de Medicina daquela Universidade, considera que “neste momento a ética está a ser colocada na vanguarda da reflexão”.

Damos aqui espaço a uma muito oportuna entrevista conjunta concedida por Mara de Sousa Freitas à Rádio Renascença e à Agência Ecclesia, num trabalho dos jornalistas Ângela Roque e Octávio Carmo.

Há a preocupação de acompanhar o desenvolvimento tecnológico com uma reflexão ética, ou esta tende a ficar sempre para trás?

É um desafio gigante, diria que neste momento a ética está a ser colocada na vanguarda da reflexão, depois de termos começado a falar de forma mais premente nas questões de Inteligência Artificial. Sou relativamente jovem, mas ainda assim acho que não tinha assistido à necessidade e à colocação da reflexão e das questões éticas na base deste desenvolvimento tecnológico, o que é uma coisa francamente positiva, no meu entendimento.

Isso terá a ver com os receios do sítio para onde esta tecnologia nos pode levar, ou é uma reação natural perante a novidade?

Não, não parece ser uma reação natural perante a novidade. Aliás, já em 2018 tivemos o primeiro Livro Branco da Comissão Europeia sobre as questões da ética e a Inteligência Artificial. Também o Papa Francisco, agora, em junho, no G7, falou do tema, mas em janeiro, com a mensagem para o Dia Mundial da Paz, já tinha colocado de uma forma muito clara e objetiva os benefícios daquilo que pode ser o desenvolvimento tecnológico relativamente à aplicação da Inteligência Artificial e, como eu gosto de chamar, das ferramentas de IA. Mas também colocou em foco, sublinhou e apontou caminhos sobre os verdadeiros desafios éticos e humanos da aplicação destas ferramentas à vida humana, e não só. Logo na celebração do Dia Mundial da Paz falou das questões da Inteligência Artificial, ética e paz, e apontou para as medidas que teremos de contemplar para que estas ferramentas se possam transformar em ferramentas para a vida boa, para o bom uso e para a não violência.

Voltando ao discurso do Papa na cimeira do G7, Francisco deixou um apelo particular para que se trave o desenvolvimento das armas autónomas letais. É importante que se pense no risco que a humanidade corre deixando máquinas dispararem autonomamente?

Acho que esta alerta é muito pertinente. Eu faço revisão ética na Comissão Europeia de Projetos de Investigação e, quando começaram a surgir os primeiros drones, um dos elementos de avaliação era o uso duplo, o uso secundário das novas tecnologias com finalidades que possam ser menos benévolas ou até maléficas, com um impacto negativo sobre a sociedade. Na altura falava-se, sobretudo, da utilização em termos de segurança, em termos de projetos de investigação com finalidades boas. E começou-se a falar exatamente que estes instrumentos e ferramentas poderiam ser usados como instrumentos de guerra…

Como, aliás, se viu agora na guerra na Ucrânia…

Exatamente. Passados estes anos percebemos claramente qual é o uso que pode ser dado a ferramentas desenvolvidas por meios científicos adequados, rigorosos, com finalidades que serviam os propósitos da sociedade, mas com usos possíveis secundários que têm de ser prevenidos e delimitados, ou efetivamente eliminados. Esse uso secundário com potencial militar, por exemplo, pode ser danoso, dependendo em que mãos é que cai. No fundo, as questões éticas são sobre o bem e o mal, como é que, perante uma situação, fazemos uma boa escolha. Aí depende sempre do agente, da pessoa, do indivíduo. Não é passível de poder ser massificado, ainda que se possa criar uma orientação que procure guiar a ação individual.

Ainda é possível impor limites? Há um certo fascínio em todas as áreas com a inteligência artificial, com o avanço tecnológico que se conseguiu, nunca se esteve neste patamar do desenvolvimento, mas corremos o risco de entrar num caminho sem retorno, se não balizarmos bem as coisas?

Tenho por norma ser otimista e acreditar na máxima de que a esperança é o caminho permanente que fazemos. Eu diria que ainda está muito por fazer, mesmo que muito já esteja feito, e acho que nunca é tarde para procurarmos colocar limites, mas sobretudo criarmos capacidade humana para resistir a uma pressão maior. Muitas vezes, nestas situações, há um hiato que a me preocupa particularmente: o conhecimento das novas tecnologias, a inovação, o desenvolvimento, qual é o grande propósito, o maior? É procurar dar-nos a todos uma melhor qualidade de vida.

O Papa alerta exatamente sobre isso. Será que podemos falar em avanços tecnológicos e inovação se o fruto, se o resultado dessa inovação tiver um impacto que possa prejudicar a nossa qualidade de vida, agravar as questões de justiça, de desigualdade, de guerra? Eu tenho dúvidas, verdadeiramente.

Sobre o impor limites, creio que, por um lado, esse trabalho está a ser desenvolvido a nível da Europa e a nível internacional, numa perspetiva de segurança, porque a Inteligência Artificial, nos seus diferentes modos, é sobre um grande manancial, o grande agente económico neste momento, que se chama dados. Não é informação, são os dados.

Já em 2017, num grupo em que estive, na Comissão de Ética, o ‘policy paper’ que fizemos foi sobre a informação e a ética e a informação, particularmente na saúde. Este é um ecossistema que está a ser criado, e os cidadãos – ou seja, os destinatários últimos daquilo que são as ferramentas que possam vir a ser criadas – estão muitas vezes alheados, do sentido da sua partilha, do seu uso, de quem terá a custódia destes dados, da finalidade com que vão ser usados.

Estes dados, no meu entendimento, são uma dádiva, numa perspetiva de qualidade e de podermos enriquecer um ecossistema com dados de qualidade que permitam construir ferramentas confiáveis, seguras. Esses algoritmos são-nos alheios, mais uma vez, são controlados por uma minoria da população, os peritos nestas áreas. Falamos em rastreabilidade e em transparência… recentemente o conselheiro do Papa para a inteligência artificial [padre Paolo Benanti] esteve em Lisboa e falou exatamente disso: a transparência é importante, mas quem de nós é capaz de compreender esse circuito, de tal modo que essa transparência possa significar uma maior confiança nesse mesmo sistema? Se calhar queremos confiar nos resultados, tendo em conta a segurança, sabermos que os dados estão nesta dita caixa negra e que podemos confiar.

Impor limites passa por continuarmos matrizes fundamentais e uma delas é a educação: a capacitação, a educação e o envolvimento dos cidadãos. Há um hiato entre o conhecimento que é produzido, a ciência, a inovação tecnológica e as reais necessidades dos contextos em que vivemos. Por isso é que cada vez mais, e agora a nível internacional, tem havido um grande esforço para a aproximação da tecnologia e da ciência aos cidadãos, uma certa democratização.

O Instituto de Bioética da Universidade Católica foi pioneiro em Portugal. Como é que o organismo acompanha este momento? Vê a possibilidade de criar, como disse o padre Paolo Benanti – que esteve em Lisboa a convite da Católica – barreiras de proteção éticas no campo da Inteligência Artificial?

Exerço funções no Instituto de Bioética desde novembro de 2022 e, logo em março de 2023, organizámos uma primeira conferência sobre ética e Inteligência Artificial. Na altura convidámos um professor do Instituto Superior Técnico (Joaquim Jorge), que é neste momento o coordenador da Cátedra de Inteligência Artificial da Unesco em Portugal, e que tem também liderado estes processos, do ponto de vista mais técnico-científico. Foi uma das primeiras conferências inseridas num ciclo que foi criado pelo Instituto de Bioética, sob o lema “Bioética para todos”, numa perspetiva não apenas de académicos, mas sim da abertura das portas da Faculdade de Medicina e do Instituto de Bioética à sociedade. Depois da conferência sobre IA houve outra sobre “Decisões éticas em fim de vida”, e ainda acontecerá outra, este ano, sobre “Ética, educação e valores”.

Tivemos as duas primeiras na Faculdade e a próxima será na Câmara Municipal de Oeiras, num espaço comunitário. O objetivo é envolver a ciência, a sociedade e a política no mesmo meio e procurar criar pontes entre a sociedade, a reflexão ética e filosófica, a ciência que procura responder a estas necessidades, e a política. Porque não podemos ignorar que há um caminho de implementação que compete à política.

Na Europa, neste momento, somos vice-presidentes de um grupo Europeu que está a desenhar as políticas do ponto de vista ético e legal para a gestão responsável de dados resultantes da aplicação das ferramentas de Inteligência Artificial. Este grupo, que tem vários subgrupos, está a agregar esforços e a produzir ferramentas, orientações, e também a promover espaços de debate a nível europeu sobre os desafios do bom uso das ferramentas de IA e as regras criadas, por um lado, no âmbito da Lei da Inteligência Artificial, que foi agora publicada a nível europeu, e também dos Códigos de Integridade que já estão estipulados, ver como é que esses princípios têm uma aplicação prática. Porque o que efetivamente é a chave, muitas vezes não é tanto a legislação aplicável – que regula e é necessária, porque todos teremos de respeitá-la -, mas o que é que significam aqueles princípios na vida quotidiana, no exercício da nossa cidadania.

O Papa tem sido pioneiro em muitos gestos e em muitas iniciativas relacionadas com a Inteligência Artificial. Em fevereiro de 2020 a Academia Pontifícia para a Vida assinou com a Microsoft, a IBM, a FAO e o governo italiano o chamado ‘Rome Call’ – o ‘Apelo de Roma’ para o uso ético da tecnologia, para promover a responsabilidade partilhada entre as instituições e organizações internacionais e os governos. Agora em julho, dias 9 e 10, representantes de várias religiões mundiais vão assinar, em Hiroxima, um apelo conjunto para o uso ético da IA a favor da paz. Que importância têm estes gestos?

São gestos que procuram, através desse simbolismo, criar caminhos. Ainda agora, no G7, foi dito que a Inteligência Artificial será, provavelmente, o maior desafio antropológico de todos os tempos. E esse desafio requer, efetivamente, uma resposta gregária, de conjunto, em que os princípios que orientam a ação individual possam contribuir para o caminho que é necessário ser feito neste global, nesta Casa Comum.

Este simbolismo deste novo acordo ir ser firmado em Hiroxima, não é por acaso. Ainda recentemente tivemos um filme, Oppenheimer, que veio lembrar-nos de Hiroxima, que vem colocar-nos a pergunta a fazer em quase todas as situações que decorrem das escolhas sobre estas novas tecnologias como formas de progresso. É a pergunta ética: ‘eu posso?’. Tenho o conhecimento, os meios e os recursos. A pergunta é ‘eu devo?’. É neste dever que encontramos o poder, e em que se fazem as perguntas: ‘o quê?’, nós já sabemos, mas o ‘para quê?’, ‘para quem?’, ‘quando?’, e o ‘como?’. Essas são as perguntas que devem guiar estas escolhas, e estes momentos simbólicos vêm exatamente trazer à colação momentos críticos da nossa história, com um impacto que se faz sentir até à atualidade.

Estes acordos, estas assinaturas são o comprometimento com valores comuns. Um dos elementos de verdadeira solidariedade social é o encontro. E aqui a pergunta é ‘como é que nós, enquanto sociedade, enquanto indivíduos, nos encontramos?’. E esta inteligência artificial, e não só, as redes sociais… a forma como nos relacionamos, comunicamos, ensinamos, aprendemos, somos cuidados e cuidamos, têm vindo a sofrer um impacto e uma alteração considerável, decorrente do uso destas ferramentas. O desafio é como permanecer humano através do uso desta tecnologia? Como é que nós, enquanto pessoas, somos capazes de melhorar a nossa qualidade de vida utilizando estas ferramentas, maximizando o bem e, por inerência, tentando ter a máxima prudência e evitar todo o mal que seja possível ser evitado. Este é o verdadeiro desafio.

As questões da Inteligência Artificial são uma oportunidade para compreendermos quem é que somos, quem é que queremos continuar a ser e que escolhas é que queremos continuar a ter para, permanecendo humano, a tecnologia possa ser um meio de realização.

Os jornalistas Ângela Roque da Rádio Renascença e Octávio Carmo da Agência Ecclesia conduziram a entrevista a Mara de Sousa Freitas, diretora do Instituto de Bioética da Universidade Católica Portuguesa.

Laudetur Iesus Christus

Oiça aqui a entrevista com Mara de Sousa Freitas, e partilhe

Obrigado por ter lido este artigo. Se quiser se manter atualizado, assine a nossa newsletter clicando aqui e se inscreva no nosso canal do WhatsApp acessando aqui

03 julho 2024, 09:07