"Robots asesinos": un dilema moral
El lunes comenzaron conversaciones en el marco de la ONU sobre sistemas de armas autónomos, al tiempo que se registran llamados para una prohibición internacional de esos "robots asesinos", que pueden transformar la naturaleza de la guerra.
La reunión de una semana del grupo conocido como Convenio sobre Ciertas Armas Convencionales (CCW, por su nombre en inglés), que comenzó el lunes en Ginebra, tiene lugar luego de que más de cien profesionales de la industria de la inteligencia artificial advirtieran en agosto pasado que las armas automáticas pueden llevar a una "tercera revolución en la forma de hacer la guerra".
"Una vez desarrolladas, permitirán que las guerras adquieran proporciones nunca vistas antes y en escalas de tiempo más rápido de lo que los seres humanos pueden comprender", dijeron los profesionales en una declaración. Y agregaron: "Esas máquinas mortales –no personas– decidirán sobre la vida y la muerte".
¿Qué es un arma autónoma?
No hay consenso internacional acerca de qué es exactamente un arma letal autónoma. A menudo es definida como un sistema que puede apuntar y disparar sin control humano alguno. Funcionan sobre la base de la "inteligencia artificial": algoritmos analizan un contexto situacional y determinan la correspondiente respuesta.
Armas letales autónomas en sentido estricto no existen actualmente. Con la campaña "Stop Killer Robots", un grupo de ONG intenta imponer una prohibición del desarrollo y uso de ese tipo de armas. Los activistas dicen que los avances en la tecnología de sensores e inteligencia artificial hacen "crecientemente posible" la creación en un futuro próximo de sistemas de armas que apunten y ataquen sin intervención humana.
Sin garantía de perfección
No existen garantías de que un sistema técnico funcione a la perfección, "pero en el momento que se los use en armas letales, los peligros y sus dimensiones se multiplican", dice Ulrike Franke, miembro del Consejo Europeo de Relaciones Exteriores que actualmente realiza investigaciones sobre drones en la Universidad de Oxford.
Franke agrega: "Un sistema armado inteligente rápidamente puede transformase en un sistema armado estúpido". Y sin una definición estricta de qué es un arma autónoma, "no hay actualmente forma de identificarlas y buscarlas". Ello resume también la dificultad de poder llegar rápidamente a su prohibición.