La técnica es una práctica de “machine learning” que permite transmitir los aprendizajes de un modelo de IA a otro
4 minutos de lectura'

Anthropic ha denunciado que las empresas chinas DeepSeek, Moonshot y MiniMax, dedicadas al desarrollo de inteligencia artificial, han llevado a cabo ataques de destilación para abusar de su modelo Claude con el fin de aprovecharse de sus capacidades y mejorar sus modelos.
La destilación es una práctica de “machine learning” que permite transmitir los aprendizajes de un modelo de IA a otro. Así, posibilita que un modelo más pequeño (modelo alumno) imite el comportamiento de redes neuronales más grandes (modelo profesor), aprendiendo sus predicciones y utilizando sus datos.
Es decir, consiste en estrenar un modelo menos capaz con los resultados de uno más potente, una técnica que se utiliza ampliamente en los laboratorios de IA de vanguardia, para crear versiones más pequeñas y económicas de sus propios modelos, y ofrecer distintos servicios a sus clientes.

Sin embargo, puede haber casos en los que la destilación se utilice de forma ilícita. Esto ocurre cuando otras compañías utilizan modelos ajenos para entrenar a los suyos ahorrando costes y tiempo, lo que se denomina un “ataque de destilación”. En este contexto, Anthropic ha estado monitorizando este tipo de prácticas ilícitas y ha indicado que se están llevando a cabo con mayor intensidad y sofisticación, como ha denunciado en un comunicado en su web.
Concretamente, Anthropic ha acusado a las empresas chinas DeepSeek, Moonshot y MiniMax de emplear ataques de destilación para aprovecharse de sus modelos de IA Claude. Así, ha asegurado que dichas empresas han generado más de 16 millones de interacciones con su chatbot Claude a través de 24.000 cuentas fraudulentas, infringiendo así sus términos y restricciones.
“El volumen, la estructura y el enfoque de las solicitudes diferían de los patrones de uso habituales, lo que refleja una extracción deliberada de capacidades en lugar de un uso legítimo”, ha explicado la compañía.
Anthropic ha revelado que, en el caso de DeepSeek, generó un tráfico sincronizado entre cuentas, con patrones idénticos y métodos de pago compartidos. DeepSeek le pedía a Claude que desarrollase paso a paso su razonamiento interno tras una respuesta compleja, generando así datos de entrenamiento para emplearlos posteriormente en sus propios modelos.
MiniMax, por su parte, realizó más de 13 millones de intercambios y la operación tuvo como objetivos aprender de la codificación agéntica y el uso y orquestación de herramientas. Lo mismo ha ocurrido con la IA de Moonshot, que llevó a cabo más de 3,4 millones de intercambios para examinar el razonamiento de agente y el uso de herramientas, el análisis de datos y el desarrollo de agentes de uso informático, entre otros.
La empresa de San Francisco consiguió reconocer este tipo de abusos gracias a correlaciones de direcciones IP, solicitudes de metadatos y corroborar que otras empresas habían sufrido prácticas similares. Precisamente, en enero de 2025, OpenAI también acusó a DeepSeek de utilizar la destilación para entrenar sus modelos de IA basándose en los de ChatGPT.

Con todo ello, Anthropic ha señalado que ha estado apoyando los controles de exportación para ayudar a mantener el liderazgo de Estados Unidos en la IA y que, precisamente, los ataques de destilación “socavan dichos controles” al permitir que laboratorios extranjeros “eliminen la ventaja competitiva” de las compañías que desarrollan su tecnología por sí mismos.
Para frenar este tipo de técnicas, Anthropic ha compartido que ha desarrollado varios clasificadores y sistemas de huellas de comportamiento para identificar patrones de ataques de destilación en el tráfico de API y poder frenarlos. Asimismo, también han reforzado la verificación de cuentas educativas, programas de investigación de seguridad y empresas emergentes, “las vías más comúnmente explotadas para crear cuentas fraudulentas”.
Además, la tecnológica ha matizado que están desarrollando salvaguardas a nivel de producto, API y modelo diseñadas para reducir la eficacia de los resultados del modelo para la destilación ilícita.







