Alarma mundial: por qué la IA de Anthropic genera tanta preocupación en la industria
El modelo, capaz de explotar vulnerabilidades de día cero en los principales sistemas operativos y navegadores del mundo; solo está disponible para unas 40 organizaciones seleccionadas
4 minutos de lectura'
Anthropic, la compañía de inteligencia artificial fundada por Dario Amodei y ex integrantes de OpenAI, decidió frenar el lanzamiento masivo de su último modelo experimental, Claude Mythos, luego de que las pruebas internas revelaran que el sistema es capaz de identificar y explotar miles de vulnerabilidades críticas en los principales sistemas operativos y navegadores web del mundo.
Primera vez que una compañía de IA admite que su creación representa un riesgo
El 7 de abril de 2026, Anthropic reveló el desarrollo de Claude Mythos Preview, un modelo de inteligencia artificial con capacidades de ciberseguridad tan avanzadas que la compañía decidió vetar su lanzamiento al público general por considerarlo un riesgo para la seguridad global.

Es la primera vez que una empresa de IA admite públicamente haber desarrollado una herramienta cuyo potencial destructivo supera los límites que ella misma se impone para lanzarla al mercado.
El modelo identificó, en pocas semanas, miles de vulnerabilidades en sistemas operativos y navegadores que habían sobrevivido durante años a millones de pruebas automatizadas y revisiones humanas, de acuerdo con un comunicado oficial de la empresa.
Claude Mythos: capacidades que superaron los límites previstos
De acuerdo con Anthropic, durante las evaluaciones de seguridad, Claude Mythos “encontró miles de vulnerabilidades de alta gravedad, incluidas algunas en todos los principales sistemas operativos y navegadores web”.

La compañía advirtió que varias de esas fallas habían sobrevivido “a millones de revisiones automatizadas” sin ser detectadas previamente.
En una declaración oficial, Anthropic señaló: “Los modelos de IA han alcanzado un nivel de capacidad de codificación en el que pueden superar a todos, excepto a los humanos más habilidosos, a la hora de encontrar y explotar vulnerabilidades de software”.
Wall Street reacciona ante el riesgo cibernético
El secretario del Tesoro, Scott Bessent, y el presidente de la Reserva Federal, Jerome Powell, convocaron de urgencia a representantes de los principales bancos de Wall Street para analizar el potencial impacto de Mythos en la infraestructura financiera, según informó Business Insider.
En una primera etapa, Anthropic limitó el acceso al modelo a un grupo reducido de compañías tecnológicas y financieras —entre ellas Amazon, Apple y JPMorgan Chase— en el marco del denominado “Proyecto Glasswing”, orientado a reforzar sistemas críticos antes de que modelos similares estén disponibles en el mercado abierto.
La cautela no es nueva en la empresa. En febrero de 2026, el lanzamiento de otra herramienta de automatización empresarial generó caídas históricas en bolsa en firmas de software, consultoría legal y agencias de publicidad, según reportó CNN en Español.
El propio Amodei había advertido que la IA podría desplazar “la mitad de los empleos administrativos de nivel inicial en los próximos uno a cinco años”.
Renuncias internas y señales de alerta ética
Las inquietudes no provienen solo del exterior. En febrero, Mrinank Sharma, hasta entonces responsable del área de salvaguardas de seguridad en Anthropic, abandonó la compañía y publicó una carta de renuncia en la que afirmó que “el mundo está en peligro”, citando no solo los riesgos de la IA, sino “toda una serie de crisis interconectadas”, según reprodujo El País.

La salida de Sharma se suma a otras renuncias recientes en el sector y a un clima de tensión creciente sobre la ética en el desarrollo de modelos avanzados.
En paralelo, reportes de Vox y otros medios señalaron que Anthropic presionó en Washington para debilitar legislación que impondría estándares de seguridad para los modelos de IA, contradiciendo su posicionamiento inicial como empresa centrada en la responsabilidad tecnológica.
Estas contradicciones alimentan el debate sobre si las compañías de IA pueden autorregularse de manera efectiva o si se requiere intervención estatal.
El próximo paso dependerá de cómo avancen las conversaciones entre Anthropic, reguladores y las empresas participantes del Proyecto Glasswing.
De momento, Claude Mythos permanece disponible solo en entornos controlados, mientras la industria aguarda definiciones sobre los marcos legales que regirán el desarrollo y despliegue de modelos de esta magnitud.
Este contenido fue producido por un equipo de LA NACION con la asistencia de la IA.
1Christina Koch, astronauta de Artemis II: “Hacé lo que te asusta, el camino de menor resistencia no suele ser el que más beneficios aporta al mundo”
2Las imágenes más impactantes de Saturno capturadas por la NASA
3Es oficial: la NASA ya tiene fecha para la misión Artemis que bajará a la Luna
4Christina Koch, astronauta de Artemis II, durante su recuperación física en la Tierra: “Supongo que tendré que esperar un poco para volver a surfear”






