Nuevos horizontes en la guerra moderna: el impacto de la inteligencia artificial en los robots militares
El 27 de noviembre de 2020, un impactante ataque con armas autónomas dejó sin vida al principal científico nuclear de Irán, Mohsen Fakhrizadeh. Este evento marcó un hito en la historia militar al poner de manifiesto el potencial letal de las armas controladas por sistemas de inteligencia artificial. En ese incidente, un dron equipado con un sistema de reconocimiento facial y control satelital identificó y atacó a Fakhrizadeh con precisión letal, dejando a su esposa ilesa a pesar de estar a pocos centímetros de él. Si bien Irán culpó a Israel y a un grupo opositor exiliado por el ataque, nunca se confirmó ni se negó la responsabilidad de Israel.
Pocos meses antes, en marzo de 2020, durante la guerra civil en Libia, el Gobierno de Acuerdo Nacional (GNA) lanzó la operación “Tormenta de Paz” con el apoyo militar de Turquía. En esta operación, se utilizaron drones Kargu-2 fabricados por la empresa turca STM. Estos drones son sistemas aéreos no tripulados con la capacidad de operar de manera autónoma. Están equipados con cámaras electro-ópticas, cámaras infrarrojas y sistemas de visión computada basados en inteligencia artificial para identificar y atacar objetivos humanos sin intervención humana.
El uso de estos drones marcó un hito al ser el primer sistema de armas en la historia en llevar a cabo un ataque contra un objetivo sin intervención humana. Este avance tecnológico plantea cuestiones éticas y de seguridad trascendentales. En 2015, destacados expertos en inteligencia artificial, robótica, física y ética, incluyendo a Stephen Hawking, Steve Wozniak, Noam Chomsky y Elon Musk, firmaron una carta que solicitaba la prohibición de armas autónomas capaces de seleccionar y atacar objetivos sin intervención humana.
La proliferación de sistemas de armas autónomas ha llevado al Secretario General de las Naciones Unidas, António Guterres, y a la presidenta de la Cruz Roja Internacional, Mirjana Spoljaric, a instar a las autoridades políticas a regular urgentemente estas tecnologías. Argumentan que la introducción de armas autónomas podría aumentar la violencia, ya que reduce los escrúpulos para involucrarse en conflictos. Piden la creación de un nuevo instrumento jurídico para prohibir y restringir claramente los sistemas de armas autónomas, concluyendo estas negociaciones para 2026.
El uso de inteligencia artificial en conflictos armados también se ha extendido a otros campos, como la plataforma de defensa aérea israelí Iron Dome. La IA ha mejorado su capacidad para interceptar y neutralizar ataques con cohetes, lo que aumenta su tasa de éxito por encima del 90%.
Diversos países, incluyendo China, Reino Unido, Francia, Corea del Sur, Turquía, Irán, entre otros, están adquiriendo o desarrollando sistemas de armas autónomas. Esta carrera armamentística plantea un riesgo creciente de que estas tecnologías caigan en manos de grupos terroristas y organizaciones fuera del control gubernamental.
A medida que las armas con inteligencia artificial se despliegan en los campos de batalla, la amenaza para la humanidad crece, lo que plantea un dilema ético y de seguridad sin precedentes. Puede que estemos en un punto en el que sea demasiado tarde para retroceder en el uso de esta tecnología.
LEER: La Municipalidad impulsa la campaña “Más Luces, Menos Ruido”