Caitlin Kalinowski anunció su dimisión el sábado, alegando su preocupación por el acuerdo de la empresa con el Departamento de Defensa estadounidense
6 minutos de lectura'

Caitlin Kalinowski, quien supervisabael área de hardware de OpenAI, anunció su dimisión el sábado, alegando su preocupación por el acuerdo de la empresa con el Departamento de Defensa estadounidense.
En una publicación en las redes sociales en X, Kalinowski escribió que OpenAI no se tomó el tiempo suficiente antes de aceptar implementar sus modelos de IA en las redes cloud clasificadas del Pentágono.
I resigned from OpenAI. I care deeply about the Robotics team and the work we built together. This wasn’t an easy call. AI has an important role in national security. But surveillance of Americans without judicial oversight and lethal autonomy without human authorization are…
— Caitlin Kalinowski (@kalinowski007) March 7, 2026
“La IA tiene un papel importante en la seguridad nacional”, publicó Kalinowski. “Pero la vigilancia de los estadounidenses sin supervisión judicial y la autonomía letal sin autorización humana son cuestiones que merecían más deliberación de la que recibieron”.
Reuters no pudo contactar inmediatamente con Kalinowski para recabar sus comentarios, pero ella escribió en X que, aunque tiene un “profundo respeto” por el director ejecutivo de OpenAI, Sam Altman, y por el equipo, la empresa anunció el acuerdo con el Pentágono “sin definir las salvaguardias”, publicó.
“Es ante todo una cuestión de gobernanza”, escribió Kalinowski en una publicación posterior en X. “Son demasiado importantes como para precipitarse en acuerdos o anuncios”.
OpenAI dijo al día siguiente de cerrar el acuerdo que este incluye salvaguardias adicionales para proteger sus casos de uso. La empresa reiteró el sábado que sus «líneas rojas» impiden el uso de su tecnología en la vigilancia nacional o en armas autónomas.
“Reconocemos que la gente tiene opiniones muy firmes sobre estas cuestiones y seguiremos participando en debates con los empleados, el Gobierno, la sociedad civil y las comunidades de todo el mundo", afirmó la empresa en una declaración a Reuters.
Kalinowski se incorporó a OpenAI en 2024 tras liderar el desarrollo de hardware de realidad aumentada en Meta Platforms.
Anthropic, empresa de riesgo
Unos días antes, el jueves, el Pentágono impuso una designación formal de riesgo para la cadena de suministro al laboratorio deinteligencia artificial Anthropic, lo que limita el uso de una tecnología que, según una fuente, se usaba para operaciones militares en Irán.
La etiqueta de “riesgo para la cadena de suministro”, confirmada en un comunicado de Anthropic, entra en vigor de inmediato y prohíbe a los contratistas del Gobierno utilizar la tecnología de Anthropic en su trabajo para el ejército estadounidense.
Sin embargo, las empresas pueden seguir utilizando Claude de Anthropic en otros proyectos no relacionados con el Pentágono, según escribió el director ejecutivo Dario Amodei en el comunicado. Dijo que la designación tiene “un alcance limitado” y que las restricciones solo se aplican al uso de la IA deAnthropic en los contratos del Pentágono.
“Se aplica claramente solo al uso de Claude por parte de los clientes como parte directa de los contratos con el Departamento de Guerra, no a todo el uso de Claude por parte de los clientes que tienen dichos contratos".
La designación de riesgo se produce tras una sobre la insistencia de la empresa en establecer salvaguardias que, según el Departamento de Defensa, denominado por el Gobierno de Trump como Departamento de Guerra, iban demasiado lejos. En su comunicado, Amodei reiteró que la empresa impugnaría la designación ante los tribunales.
En los últimos días, Anthropic y el Pentágono han discutido posibles planes para que el Pentágono deje de utilizar Claude, dijo Amodei en el comunicado del jueves. Ambas partes han hablado de cómo Anthropic podría seguir colaborando con el ejército sin desmantelar sus salvaguardias, añadió.
Sin embargo, en una publicación en la red social X el jueves por la noche, el director de tecnología del Pentágono, Emil Michael, dijo que no hay ninguna negociación activa delDepartamento de Defensa con Anthropic.
Amodei también se disculpó por una nota interna publicada el miércoles por el sitio web de noticias tecnológicas TheInformation. En la nota, escrita originalmente el viernes pasado, Amodei dijo que a los dirigentes del Pentágono no les gustaba la empresa, en parte porque “no hemos elogiado a Trumpal estilo de un dictador”.
La publicación de dicha nota se produjo mientras los inversores de Anthropic se apresuraban a contener el daño causado por la ruptura de la empresa con el Pentágono.
El Departamento de Defensa no respondió inmediatamente a las solicitudes de comentarios.
La medida supuso una reprimenda extraordinaria por parte de EEUU contra una empresa tecnológica estadounidense que se adelantó a sus rivales a la hora de trabajar con el Pentágono. Se produce en un momento en el que el departamento sigueconfiando en la tecnología de Anthropic para prestar apoyo a operaciones militares, entre ellas las de Irán, según una fuente cercana.
Es probable que Claude se esté utilizando para analizar información de inteligencia y ayudar en la planificación operativa.
Un portavoz de Microsoft dijo que los abogados de la empresa estudiaron la designación y concluyeron: “Los productos de Anthropic, incluido Claude, pueden seguir estando disponibles para nuestros clientes, excepto para el Departamento de Guerra, a través de plataformas como M365, GitHub y Microsoft AIFoundry".
Microsoft puede seguir colaborando con Anthropic en proyectos no relacionados con la defensa, añadió el portavoz.
Amazon, inversor en Anthropic y cliente importante del modelo Claude de la empresa, no respondió inmediatamente a una solicitud de comentarios fuera del horario laboral habitual.
Maven Smart Systems de Palantir, una plataforma de software que proporciona a los ejércitos análisis de inteligencia y objetivos para armas, utiliza múltiples indicaciones y flujos de trabajo que se crearon utilizando el código Claude de Anthropic, según informó anteriormente Reuters.
Anthropic fue la más agresiva de sus rivales a la hora de cortejar a los responsables de la seguridad nacional de EEUU. Sin embargo, la empresa y el Pentágono llevan meses en desacuerdo sobre cómo el ejército puede utilizar su tecnología en el campo de batalla. Este conflicto salió a la luz a principios de este año.
Anthropic se ha negado a dar marcha atrás en la prohibición de que su IA Claude se utilice para armas autónomas y la vigilancia masiva en EEUU. El Pentágono ha respondido diciendo que debería poder utilizar esta tecnología según sea necesario, siempre que cumpla con la legislación estadounidense.
La etiqueta de “riesgo para la cadena de suministro” otorga ahora a Anthropic un estatus que Washington había utilizado hasta ahora para referirse a adversarios extranjeros. EEUU tomó una medida similar para eliminar al gigante tecnológico chino Huawei de las cadenas de suministro del Pentágono.
Reuters
1MWC 2026: cinco cosas que separan al Galaxy S26 Ultra de sus competidores (y sus antecesores)
2Cómo activar el “modo Capibara” de WhatsApp en marzo 2026
3Día de la Mujer 2026: 150 frases para enviar por WhatsApp
4Roblox usará IA para reformular el lenguaje inapropiado en los chats y mantener la cordialidad




