Inteligência artificial e fator humano
Andrea Tornielli
Os sistemas de armas autônomos nunca poderão ser sujeitos moralmente responsáveis: a exclusiva capacidade humana de julgamento moral e de decisão ética é mais do que um conjunto complexo de algoritmos, e tal capacidade não pode ser reduzida à programação de uma máquina que, por mais «inteligente» que seja, permanece sempre uma máquina. Por esta razão, é imperioso garantir uma supervisão humana adequada, significativa e coerente dos sistemas de armas". O Papa Francisco escreveu isso na Mensagem para o Dia Mundial da Paz de 2024.
Há um episódio, ocorrido há quarenta anos, que deveria se tornar um paradigma sempre que se fala de inteligência artificial aplicada à guerra, às armas, aos instrumentos de morte. E é a história do oficial soviético cuja decisão, contrariando o protocolo, salvou o mundo de um conflito nuclear que teria tido consequências catastróficas. Aquele homem se chamava Stanislav Evgrafovich Petrov, era um tenente-coronel do exército russo e, em 26 de setembro de 1983, prestava serviço noturno no bunker "Serpukhov 15", monitorando a atividade de mísseis dos EUA. A Guerra Fria estava em um ponto de inflexão crucial, o presidente americano Ronald Reagan estava investindo grandes somas nos armamentos e acabara de definiar a URSS de "império do mal", a OTAN estava envolvida nos exercícios militares que recriavam cenários de guerra nuclear. No Kremlin, Jurij Andropov havia falado recentemente de uma "escalada sem precedentes" da crise e, em 1º de setembro, os soviéticos haviam derrubado um avião da Korean Air Lines sobre a península de Kamchatka, matando 269 pessoas.
Naquela noite de 26 de setembro, Petrov viu que o elaborador Krokus, o cérebro considerado infalível em monitorar a atividade inimiga, havia relatado de uma base em Montana, a partida de um míssil em direção à União Soviética. O protocolo exigia que o oficial alertasse imediatamente os superiores, que dariam o sinal verde para uma resposta lançando mísseis em direção aos Estados Unidos. Mas Petrov esperou, também porque, segundo lhe disseram, qualquer ataque teria sido maciço. Portanto, ele considerou aquele míssil solitário um alarme falso. E fez o mesmo com os quatro seguintes que apareceram nos seus monitores pouco tempo depois, perguntando-se por que não havia confirmação do radar terrestre. Ele sabia muito bem que os mísseis intercontinentais levavam menos de meia hora para chegar ao destino, mas decidiu não dar o alarme, deixando os outros militares presentes petrificados.
Na verdade, o cérebro eletrônico estava errado; não houve nenhum ataque de míssil. Krokus havia sido enganado por um fenômeno de refração da luz solar em contato com nuvens em alta altitude. Em suma, a inteligência humana havia visto além da máquina. A decisão providencial de não decidir foi tomada por um homem cujo julgamento foi capaz de enxergar além dos dados e protocolos.
A catástrofe nuclear foi evitada, embora ninguém soubesse disso na época até o início da década de 1990. Petrov, que faleceu em setembro de 2017, disse o seguinte sobre aquela noite no bunker "Serpukhov 15": "o que eu fiz? Nada de especial, apenas meu trabalho. Eu era o homem certo no lugar certo e na hora certa". Ele foi o homem capaz de avaliar o possível erro da máquina considerada infalível, o homem capaz - voltando às palavras do Papa - "de fazer julgamentos morais e tomar decisões éticas", porque uma máquina, por mais "inteligente" que seja, continua sendo uma máquina.
A guerra, repete Francisco, é uma loucura, uma derrota da humanidade. A guerra é uma grave violação da dignidade humana. Fazer a guerra escondendo-se atrás de algoritmos, confiando na inteligência artificial para determinar os alvos e como atingi-los e, assim, limpar a consciência porque, no final, a máquina escolheu, é ainda mais grave. Não vamos nos esquecer de Stanislav Evgrafovich Petrov.
Obrigado por ter lido este artigo. Se quiser se manter atualizado, assine a nossa newsletter clicando aqui e se inscreva no nosso canal do WhatsApp acessando aqui