Anthropic se niega a ceder ante el Pentágono sobre salvaguardas de IA

WASHINGTON (AP) — Un enfrentamiento público entre el gobierno de Trump y Anthropic llegó a un punto muerto, mientras funcionarios militares exigen que la empresa de inteligencia artificial flexibilice sus políticas éticas antes del viernes o se arriesgue a perjudicar su negocio
El director ejecutivo de Anthropic, Dario Amodei, trazó una tajante línea roja 24 horas antes del plazo, al declarar que su empresa “no puede, en conciencia, acceder” a la exigencia final del Pentágono de permitir un uso sin restricciones de su tecnología
Anthropic, fabricante del chatbot Claude, puede permitirse perder un contrato de defensa. Pero el ultimátum de esta semana del secretario de Defensa, Pete Hegseth, plantea riesgos más amplios en el punto álgido del meteórico ascenso de la compañía, que pasó de ser un laboratorio de investigación en ciencias de la computación poco conocido en San Francisco a convertirse en una de las startups más valiosas del mundo
Si Amodei no cede, las autoridades militares advirtieron que no solo rescindirán el contrato de Anthropic, sino que además “los considerarán un riesgo para la cadena de suministro”, una designación que normalmente se aplica a adversarios extranjeros y que podría descarrilar las alianzas cruciales de la empresa con otros negocios
Y si Amodei claudicara, podría perder la confianza en la floreciente industria de la IA, en particular entre el talento de primer nivel atraído a la empresa por sus promesas de construir de manera responsable una IA superior a la humana que, sin salvaguardas, podría suponer peligros catastróficos
Anthropic indicó que buscó garantías limitadas del Pentágono de que Claude no se utilizará para la vigilancia masiva de los estadounidenses ni en armas totalmente autónomas. Sin embargo, después de que meses de conversaciones privadas desencadenaran un debate público, señaló el jueves en un comunicado que nuevos términos contractuales, “planteados como un consenso, venían acompañados de jerga legal que permitiría ignorar esas salvaguardas a voluntad”
Eso ocurrió después de que Sean Parnell, el principal portavoz del Pentágono, publicara en redes sociales que “no permitiremos que NINGUNA empresa dicte los términos sobre cómo tomamos decisiones operativas”. Anthropic tiene “hasta las 5:01 de la tarde del viernes, hora del Este, para decidir” si cumplirá las exigencias o afrontará consecuencias, afirmó Parnell
Emil Michael, subsecretario de Defensa para investigación e ingeniería, arremetió después contra Amodei y alegó en X que “tiene un complejo de Dios” y que “no quiere otra cosa que intentar controlar personalmente a las Fuerzas Armadas de Estados Unidos y le parece bien poner en riesgo la seguridad de nuestra nación”
Ese mensaje no ha calado en gran parte de Silicon Valley, donde un creciente número de trabajadores tecnológicos de los principales rivales de Anthropic, OpenAI y Google, expresó su apoyo a la postura de Amodei la tarde del jueves en una carta abierta
OpenAI y Google, junto con xAI de Elon Musk, también tienen contratos para suministrar sus modelos de IA al ejército
Musk se alineó el viernes con el gobierno republicano del presidente Donald Trump y escribió en X que “Anthropic odia a la civilización occidental”, después de que Michael llamara la atención sobre una versión anterior de los principios rectores de Claude que alentaba la “consideración de perspectivas no occidentales”. Todos los principales modelos de IA, incluidos Grok de Musk y ChatGPT de OpenAI, están programados con un conjunto de instrucciones que guían los valores y el comportamiento de un chatbot. Anthropic considera esa guía como una constitución
Aunque algunos líderes tecnológicos aliados de Trump se han sumado a la disputa —entre ellos, Musk y Palmer Luckey, cofundador del contratista de defensa Anduril—, el debate polarizador sobre la “IA woke” ha puesto a otros en una posición difícil
“El Pentágono negocia con Google y OpenAI para intentar que acepten lo que Anthropic ha rechazado”, dice la carta abierta de algunos empleados de OpenAI y Google. “Intenta dividir a cada empresa con el miedo de que la otra ceda”
Pero en un movimiento sorpresivo de uno de los rivales más feroces de Amodei, el director ejecutivo de OpenAI, Sam Altman, se puso el viernes del lado de Anthropic y cuestionó la “amenazante” medida del Pentágono en una entrevista con CNBC, al sugerir que OpenAI y la mayor parte del sector de la IA comparten las mismas líneas rojas. Amodei trabajó antes para OpenAI, hasta que él y otros líderes de OpenAI renunciaron para formar Anthropic en 2021
“A pesar de todas las diferencias que tengo con Anthropic, en general confío en ellos como empresa, y creo que realmente se preocupan por la seguridad”, le dijo Altman a CNBC. “Me alegra que hayan apoyado a nuestros combatientes. No estoy seguro de hacia dónde va esto”
Legisladores republicanos y demócratas, así como un exlíder de las iniciativas de IA del Departamento de Defensa, también expresaron su inquietud por el enfoque del Pentágono
“Poner a Anthropic en la mira genera titulares picantes, pero al final todos pierden”, escribió en redes sociales el general retirado de la Fuerza Aérea Jack Shanahan
Shanahan afrontó una ola distinta de oposición de trabajadores tecnológicos durante el primer gobierno de Trump, cuando dirigió Maven, un proyecto para usar tecnología de IA para analizar imágenes de drones y apuntar armas. En ese momento, hubo tantos empleados de Google que protestaron por su participación en el Proyecto Maven que el gigante tecnológico se negó a renovar el contrato y luego se comprometió a no usar IA en armamento
“Como yo estaba justo en el centro del Proyecto Maven y Google, es razonable suponer que aquí me pondría del lado del Pentágono”, escribió Shanahan el jueves en redes sociales. “Sin embargo, simpatizo con la posición de Anthropic. Más de lo que simpaticé con la de Google en 2018”
Señaló que Claude ya se utiliza ampliamente en todo el gobierno, incluso en entornos clasificados, y que las líneas rojas de Anthropic son “razonables”. Añadió que los grandes modelos de lenguaje que impulsan chatbots como Claude “tampoco están listos para su uso en entornos de seguridad nacional”, en particular, no para armas totalmente autónomas
“No están intentando hacerse los listos aquí”
Parnell sostuvo el jueves que el Pentágono quiere “usar el modelo de Anthropic para todos los fines lícitos” y afirmó que ampliar el uso de la tecnología evitaría que la empresa “ponga en peligro operaciones militares críticas”. Él y otros funcionarios no han detallado cómo quieren usar la tecnología
El ejército “no tiene interés en usar la IA para realizar vigilancia masiva de estadounidenses (lo cual es ilegal), ni queremos usar la IA para desarrollar armas autónomas que operen sin participación humana”
Cuando Hegseth y Amodei se reunieron el martes, funcionarios militares advirtieron que podrían designar a Anthropic como un riesgo para la cadena de suministro, cancelar su contrato o invocar una ley de la era de la Guerra Fría llamada Ley de Producción de Defensa para otorgar al ejército una autoridad más amplia para usar sus productos, aun si la empresa no lo aprueba
Amodei dijo el jueves que “esas dos últimas amenazas son intrínsecamente contradictorias: una nos etiqueta como un riesgo de seguridad; la otra etiqueta a Claude como esencial para la seguridad nacional”. Dijo esperar que el Pentágono reconsidere, dado el valor de Claude para el ejército, pero que, si no lo hace, Anthropic “trabajará para facilitar una transición fluida hacia otro proveedor”
___
O’Brien informó desde Providence, Rhode Island
___
Esta historia fue traducida del inglés por un editor de AP con la ayuda de una herramienta de inteligencia artificial generativa



