Los robots asesinos salen del terreno de la ciencia ficción

Más de 1000 científicos advirtieron de los peligros de usar la inteligencia artificial para el desarrollo de ese tipo de armas
(0)
29 de julio de 2015  

LONDRES.- Los robots asesinos, máquinas que pueden tomar la decisión de matar de forma independiente de cualquier control humano, ya abandonaron el terreno de la ciencia ficción. Ayer, más de 1000 científicos alertaron en una carta abierta de los peligros que entrañan estas armas.

Los firmantes -entre los que figuran el físico Stephen Hawking y el cofundador de Apple Steve Wozniak- explicaron que se trata de una tecnología diferente de los drones o los misiles por control remoto. Hablaron de artefactos capaces de "buscar y eliminar personas que tengan ciertos criterios predefinidos", los llamados robots asesinos.

Luego del descubrimiento de la pólvora y de la bomba nuclear, ésta sería la "tercera revolución" en armas de guerra, advirtieron. Por eso, reclamaron que sean prohibidos.

Los firmantes, muchos de ellos considerados los mayores expertos en inteligencia artificial del mundo, creen que el desarrollo de estas armas "es cuestión de años, no de décadas", y que "si una gran potencia militar impulsa las armas de inteligencia artificial será prácticamente imposible evitar una carrera armamentística global", señaló el documento sobre los que, afirma, terminarán por convertirse en "los kalashnikov del mañana".

Para sostener este argumento, explicaron que se pueden construir con materiales relativamente fáciles de conseguir, a diferencia de las armas nucleares, por lo que "se convertirán en ubicuas y baratas de producir para todas las potencias militares significativas".

Por eso, dijeron los científicos, "es cuestión de tiempo que aparezcan en el mercado negro y acaben en manos de terroristas, de dictadores en busca de una mejor forma de controlar a la población o de señores de la guerra con ansia de llevar a cabo una limpieza étnica".

Según los especialistas, "las armas autónomas son ideales para cometer asesinatos, desestabilizar naciones, someter a la población y acabar con un grupo étnico determinado".

El pedido de que esta tecnología sea prohibida se presentó ayer en Buenos Aires, durante la Conferencia Internacional Conjunta sobre Inteligencia Artificial. En el texto, los científicos indicaron que la inteligencia artificial debe usarse para mejores propósitos: "Creemos que la inteligencia artificial tiene un gran potencial para beneficiar a la humanidad de muchas maneras".

"Soy muy optimista sobre la posibilidad de que se alcance un tratado para decretar su prohibición", dijo en abril pasado Noel Sharkey, profesor emérito de Inteligencia Artificial y Robótica en la Universidad de Sheffield y el académico que impulsó la mayor campaña internacional contra los robots militares.

Las armas autónomas

Robots asesinos

Son máquinas que pueden tomar la decisión de matar de forma independiente de cualquier control humano

Acciones

Pueden eliminar personas que tengan ciertos criterios predefinidos

Más accesibles

A diferencia de las armas nucleares, se pueden construir con materiales más baratos y accesibles

  • Agencias AP y EFE y diario El País

ADEMÁS

MÁS leídas ahora

ENVÍA TU COMENTARIO

Ver legales

Los comentarios publicados son de exclusiva responsabilidad de sus autores y las consecuencias derivadas de ellos pueden ser pasibles de sanciones legales. Aquel usuario que incluya en sus mensajes algún comentario violatorio del reglamento será eliminado e inhabilitado para volver a comentar. Enviar un comentario implica la aceptación del Reglamento.

Para poder comentar tenés que ingresar con tu usuario de LA NACION.

Descargá la aplicación de LA NACION. Es rápida y liviana.