Armas autónomas, Santa Sede: Las máquinas no pueden tener la última palabra
Vatican News
La guerra tiene una "naturaleza fundamentalmente deshumana" y "el objetivo último, lo que es digno de la llamada del hombre y de la civilización humana, es la abolición de la guerra". Reitera la "firme convicción" de la Santa Sede el arzobispo Ettore Balestrero, observador permanente de la Santa Sede ante las Naciones Unidas y otras organizaciones internacionales en Ginebra. El nuncio intervino hoy, 4 de marzo, en el intercambio general de puntos de vista del Grupo de Expertos Gubernamentales (GEG) 2024 sobre Tecnologías Emergentes en el ámbito de los Sistemas de Armas Autónomas Letales (LAWS). Su discurso se basó en el Mensaje del Papa Francisco para la Jornada Mundial de la Paz 2024. En particular, Balestrero reiteró el pasaje en el que el Pontífice afirma: "La búsqueda de las tecnologías emergentes en el sector de los denominados “sistemas de armas autónomos letales”, incluido el uso bélico de la inteligencia artificial, es un gran motivo de preocupación ética". "Mirando el mundo que nos rodea, no podemos eludir las graves cuestiones éticas vinculadas al sector de los armamentos".
Una máquina, por muy "inteligente" que sea, sigue siendo una máquina
"La urgencia de esta cuestión aumenta debido al amplio desarrollo y uso de drones armados, incluidos los drones kamikaze y en enjambre", lo que ha llevado a "una menor percepción de la devastación que causan y de la responsabilidad de su uso, contribuyendo a un enfoque aún más frío y distante de la inmensa tragedia de la guerra", remarcó el representante papal. "Los sistemas de armas autónomos no pueden considerarse sujetos moralmente responsables", añadió. De hecho, "los seres humanos poseen una capacidad única de juicio moral y de toma de decisiones éticas que no puede ser reproducida por un complejo conjunto de algoritmos"; en cambio, "una máquina, por muy 'inteligente' que sea, sigue siendo una máquina". El riesgo es real: "Si operan sin supervisión humana directa, estos sistemas pueden cometer errores en la identificación de los objetivos previstos debido a prejuicios no identificados inducidos por sus capacidades de aprendizaje automático", advirtió monseñor Balestrero, reclamando "una supervisión humana adecuada, significativa y constante de los sistemas de armas equipados con funciones de inteligencia artificial". Una cuestión "crucial".
La dignidad de la persona y una cultura de paz
Las máquinas, prosiguió, "al ser objetos y no sujetos, no pueden realmente pensar, sentir, decidir o ser consideradas responsables de sus actos. Sólo pueden ejecutar instrucciones y simular comportamientos humanos. Por lo tanto, es incorrecto decir que las máquinas pueden 'decidir' o 'juzgar'". En otras palabras, "a pesar de su complejidad, las máquinas no pueden tener la última palabra sobre los seres humanos".
Para la Santa Sede es, por tanto, urgente que el Grupo de Expertos Gubernamentales trabaje "específicamente en el campo de las prohibiciones y regulaciones de los sistemas de armas según su grado de autonomía", manteniendo firmemente en el centro de sus deliberaciones "la referencia fundamental a la dignidad de la persona humana". De ahí, una advertencia final: "El desarrollo de armamentos cada vez más sofisticados, incluso con el objetivo de reducir los daños colaterales, no es una solución duradera", afirmó Balestrero, "al igual que cualquier forma de mal, la guerra se origina en el corazón humano". Por ello, concluyó, "la verdadera solución pasa por la conversión a una cultura de paz que ponga los avances tecnológicos al servicio de la humanidad, del desarrollo humano integral y del bien común".
Gracias por haber leído este artículo. Si desea mantenerse actualizado, suscríbase al boletín pulsando aquí