Alertan de amenaza de robots asesinos

Las “armas letales automáticas” conocidas como “robots asesinos” representan una real amenaza para los derechos y principios más fundamentales del derecho internacional, advirtieron expertos al concluir aquí un debate sobre el tema. La cita fue esta semana en la sede de la Organización de las Naciones Unidas (ONU), donde se intentó sentar las bases para […]

Las “armas letales automáticas” conocidas como “robots asesinos” representan una real amenaza para los derechos y principios más fundamentales del derecho internacional, advirtieron expertos al concluir aquí un debate sobre el tema.

La cita fue esta semana en la sede de la Organización de las Naciones Unidas (ONU), donde se intentó sentar las bases para que los Estados comiencen a considerar las cuestiones fundamentales de índole jurídica, ética y social que plantean los sistemas autónomos de armas.

Las llamadas "armas letales autónomas" conocidas como "robots asesinos" una vez que han sido programadas para atacar no precisan del control de una persona en la decisión última de terminar con la vida de otros ser humano.

En la cita, convocada por los Estados parte en la Convención sobre ciertas armas convencionales, participaron expertos de gobiernos, del Comité Internacional de la Cruz Roja (CICR), agencias de la ONU y organizaciones no gubernamentales, entre otros.

Los robots asesinos, que se ven en películas de ciencia ficción, los cuales no discriminan en el momento de matar, pueden ser una realidad en el corto plazo y, según científicos, investigadores, diplomáticos e incluso personal militar, es imperativo poner alto al desarrollo de estas armas letales autónomas.

Al respecto, el director de la División de Armas de Human Rights Watch (HRW), Steeve Goose, dijo que “los robots asesinos amenazarían los derechos y principios más fundamentales del derecho internacional”.

“La única respuesta posible es la prohibición preventiva”, afirmó. Reuniones como la de esta semana "ofrecen la oportunidad de parar el desarrollo de un arma que está amenazando el futuro de la humanidad”, opinó Goose.

"No debemos esperar hasta que estos robots asesinos sean una realidad para detenerlos", argumentó.

"Ahora tenemos la oportunidad para hacerlo, si alguien hubiera alzado la voz en los años 40 para impedir la producción de armas nucleares y si en ese momento lo hubieran detenido, la situación de ahora sería completamente diferente”, valoró.

"Lamentablemente , eso no sucedió, la sociedad civil no pudo detener el desarrollo de las armas atómicas", dijo y añadió "en cambio ahora tenemos la oportunidad de detener la fabricación de estos robots cuyos efectos son inimaginables”.

"Hay que parar estar armas antes de que existan, hay que poner alto porque una vez que el genio está fuera de la botella, es muy difícil detenerlo y regresarlo de nuevo a su lugar", advirtió.

Estados Unidos es el líder en la robótica militar y tiene desplazados unos 11 mil vehículos aéreos no pilotados como los drones, mientras que otros países como China, Israel, Taiwán, Corea del Sur, Reino Unido y Rusia, investigan sobre este tipo de armamento letal.

Los tipos de “robots de combate” que se desarrollarán incluirán los que tendrán por misión desactivar o hacer explotar bombas, vehículos submarinos para la vigilancia, y otros que pueden transportar equipos en tierra, siempre de forma autónoma, sin presencia humana.

Las posibilidades de aplicación de la robótica en el terreno de la seguridad son muy amplias, como también lo muestra el caso de Israel, que produce un vehículo terrestre autónomo que patrulla sus fronteras y detiene eventuales infiltraciones.

Por su parte, la jefa de la Unidad de Armas del CICR, Kathleen Lawand, durante su intervención en la reunión de esta semana señaló que "el desarrollo de sistemas autónomos de armas influye profundamente en la evolución de la guerra".

"El principal problema radica en que funciones cruciales como la identificación y el ataque de objetivos, incluidos seres humanos, puedan llevarse a cabo sin control humano”, apuntó.

"El hecho de que se permita a una máquina tomar decisiones de vida o muerte en el campo de batalla, sin la intervención de un ser humano o con una intervención humana reducida, provoca una profunda desazón", reconoció.

Además existe una gran incertidumbre sobre la capacidad de un arma totalmente autónoma para emitir los juicios complejos y adaptados al contexto que exige el derecho internacional humanitario, lo que ocasiona una persistente preocupación.

Por ejemplo, cuestionó, en el fragor de la batalla, ¿podrá un arma autónoma distinguir entre un civil y un combatiente? ¿Podrá desactivar un ataque que entrañe consecuencias excesivas para los civiles? "Ello supone un ingente desafío en materia de programas que quizás resulte imposible de superar", argumentó Lawand.

Asimismo la estadunidense Jody Williams, cuya lucha para la prohibición de las minas antipersona le valió el Premio Nobel de la Paz en 1997, estimó que “si no introducimos una discusión moral y ética sobre este asunto, no lograremos controlar la guerra”.