EEUU: pentágono declara a empresa de IA Anthropic riesgo para seguridad nacional
La decisión del gobierno de Trump prohíbe el uso de su tecnología en contratos militares

La decisión implica que los contratistas del Departamento de Defensa deberán dejar de utilizar los sistemas de la empresa —incluido su modelo de inteligencia artificial Claude— en proyectos vinculados con la defensa estadounidense.
El gobierno estadounidense justificó la medida señalando preocupaciones sobre el uso de la tecnología en operaciones militares y sobre la disponibilidad de sus sistemas para las necesidades de seguridad nacional.
Anthropic, fundada por exinvestigadores de OpenAI y considerada uno de los principales actores globales en el desarrollo de inteligencia artificial avanzada, rechazó la acusación y anunció que planea impugnar la decisión en los tribunales.
El conflicto se originó tras un desacuerdo entre la compañía y el Pentágono sobre el uso militar de sus modelos de IA.
Anthropic mantiene restricciones éticas que prohíben que su tecnología sea utilizada para vigilancia masiva o para el desarrollo de armas autónomas capaces de operar sin supervisión humana.
Esas limitaciones chocaron con las demandas del Departamento de Defensa, que busca ampliar el uso de inteligencia artificial en operaciones militares y sistemas de inteligencia.
El secretario de Defensa, Pete Hegseth, había advertido previamente que si la empresa no levantaba ciertas restricciones sobre el uso de sus sistemas, podría ser excluida de la cadena de suministro del Pentágono.
Tras vencerse el plazo fijado por el Departamento de Defensa, el gobierno decidió aplicar formalmente la designación de "riesgo en la cadena de suministro", una categoría que normalmente se utiliza para empresas vinculadas a adversarios extranjeros y que rara vez se aplica a compañías estadounidenses.
La medida obligó además a las agencias federales a comenzar a retirar gradualmente la tecnología de Anthropic de sus sistemas.
El caso es particularmente sensible porque la empresa había trabajado previamente con el gobierno estadounidense en proyectos de inteligencia y defensa. Su modelo Claude había sido integrado en plataformas utilizadas por agencias de seguridad nacional y por programas de análisis militar basados en inteligencia artificial.
La ruptura con Anthropic se produce en un momento de intensa competencia global por el liderazgo en inteligencia artificial, una tecnología considerada estratégica tanto para la economía como para la seguridad nacional.
El enfrentamiento también refleja las tensiones crecientes entre el gobierno estadounidense y las empresas tecnológicas de Silicon Valley sobre los límites éticos del uso militar de la inteligencia artificial. (ANSA).



