Medio Oriente: efecto IA, más distancia psicológica de la guerra
Los drones y los sistemas automatizados reducen el contacto directo con la violencia

Así es como la IA está transformando la guerra, planteando preguntas y, sobre todo, impulsando la exigencia de normas. "El rápido desarrollo tecnológico está superando la lentitud de los debates internacionales", escribe el politólogo Michael Horowitz, de la Universidad de Pensilvania en Filadelfia, en el sitio web de la revista Nature.
También en Nature, el experto en tecnología militar Craig Jones, de la Universidad de Newcastle (Reino Unido), señala que "La actual incapacidad para regular la guerra basada en IA, o para suspender su uso hasta que se llegue a un acuerdo sobre su uso legítimo, parece sugerir que la posible proliferación de la guerra basada en IA es inminente".
El Pentágono, por ejemplo, estima que para 2035, aproximadamente el 70% de la Fuerza Aérea estadounidense podría estar compuesta por sistemas no tripulados, según el matemático Alfio Quarteroni, miembro de la Academia Lincei.
Ya se trate de los pocos drones que ya son capaces de identificar un objetivo de forma autónoma, de los más tradicionales que aún requieren guía, o incluso de enjambres de drones potencialmente capaces de reconocimiento facial, una de las innovaciones que la IA aporta a la guerra es que "También contribuye a aumentar la distancia psicológica del campo de batalla", afirma Quarteroni.
"El creciente uso de drones y sistemas de armas automatizados reduce el contacto directo con la violencia, atenuando el impacto sensorial y moral del uso de la fuerza letal", apunta. "Históricamente, los soldados siempre han tenido que superar una aversión natural a matar", pero "Las nuevas tecnologías corren el riesgo de hacer que esta transición sea cada vez menos evidente. El fenómeno se ha denominado 'descarga cognitiva'", sostiene.
Es decir, el esfuerzo analítico se delega en sistemas automatizados, mientras que los humanos corren el riesgo de sentirse más desvinculados de las consecuencias de sus decisiones.
Los algoritmos y los datos se convierten en protagonistas en el campo de batalla, del cual los humanos que controlan las armas también se mantienen emocionalmente distantes, y existe un creciente temor a una delegación de responsabilidad de los humanos a las máquinas, erróneamente consideradas infalibles.
"Según algunas reconstrucciones", continúa el matemático, "Otro riesgo es que se acorte la llamada cadena de muerte, es decir, la secuencia de pasos desde la identificación de un objetivo hasta la autorización y ejecución del ataque".
Esto se denomina "compresión de decisiones": "Las operaciones militares que antes requerían días o semanas de planificación ahora pueden prepararse en minutos o incluso segundos", y existe un creciente temor de que "Los responsables humanos de la toma de decisiones acaben simplemente ratificando las recomendaciones generadas por las máquinas", detalla.
(Ansa).



