¿Quién controlará que los robots soldados no cambien de bando?

Un arma autónoma presentada por Kalashnikov, una de tantas que llegaron al mercado en los últimos años, y que generan alarma entre los expertos
Un arma autónoma presentada por Kalashnikov, una de tantas que llegaron al mercado en los últimos años, y que generan alarma entre los expertos Fuente: Archivo
(0)
27 de agosto de 2018  • 11:21

Máquinas de guerra que eligen los objetivos y que matan por decisión propia. ¿Es esto un avance o más bien debería ser prohibido? Una serie de expertos debatirá al respecto desde este lunes y hasta el día 31 de agosto en Ginebra.

La tecnología se denomina Sistemas de Armas Autónomos Letales (LAWS, por sus siglas en inglés) o coloquialmente " robots asesinos", dispositivos que incluyen a robots que disparan, a los drones de ataque o submarinos no tripulados. Durante los combates no los dirigen personas, sino que deciden de manera autónoma los objetivos que consideran legítimos y disparan.

"No hay que dramatizar el asunto", decía hace unos meses el embajador indio Amandeep Gill, quien encabeza el encuentro. "Los robots no controlarán el mundo". Pero los críticos están alarmados.

"Las armas no pueden distinguir entre amigos y enemigos y deben ser analizadas desde el punto de vista del derecho internacional", afirma Thomas Küchenmeister, de la organización alemana Facing Finance, que forma parte de la campaña internacional contra este tipo de armas ( Campaign to Stop Killer Robots). La decisión de acabar con una vida humana jamás debería estar en manos de una máquina, argumenta.

Las armas autónomas han sido desarrolladas gracias al veloz avance de la inteligencia artificial. Las computadoras aprenden en base a la información que van recibiendo y deciden qué es un objetivo, cómo se ve, cómo se mueve y cuándo debe ser atacado o detonado sin que una persona participe en la decisión. Es una diferencia clave, por ejemplo, respecto de los misiles "Patriot", que disparan de manera automática, pero que deben ser programados con anterioridad con precisión por seres humanos.

Entre automático y autónomo

"Existe una zona gris entre las armas automáticas y las autónomas", explica Michael Biontino, hasta hace poco embajador alemán de desarme en Ginebra. "Las armas autónomas reconocen sus objetivos por ellas mismas, no tienen una biblioteca de blancos registrada con anterioridad".

No hay ninguna duda de que se encuentran trabajando en estos sistemas Estados Unidos, Rusia, China, Israel, Corea del Sur y Reino Unido. Son armas que ya existen, asegura Neil Davison, del Comité Internacional de la Cruz Roja (CICR), organismo que vigila el cumplimiento del derecho humanitario, de las Convenciones de Ginebra, y que está preocupado por esta situación.

"Los ataques deben limitarse estrictamente a los objetivos militares", establece, por ejemplo, la Convención de Ginebra. ¿Pueden decidir esto las máquinas? "El ser humano tiene que mantener suficiente control para que se tomen medidas que sean legales", opina Davison.

Agencia DPA

ADEMÁS

MÁS leídas ahora

ENVÍA TU COMENTARIO

Ver legales

Los comentarios publicados son de exclusiva responsabilidad de sus autores y las consecuencias derivadas de ellos pueden ser pasibles de sanciones legales. Aquel usuario que incluya en sus mensajes algún comentario violatorio del reglamento será eliminado e inhabilitado para volver a comentar. Enviar un comentario implica la aceptación del Reglamento.

Para poder comentar tenés que ingresar con tu usuario de LA NACION.

Descargá la aplicación de LA NACION. Es rápida y liviana.