El último modelo de razonamiento experimental de OpenAI ha logrado obtener una medalla de oro en las Olimpiadas Internacionales de Matemáticas (IMO) de 2025, logrando resolver cinco de los seis problemas “al nivel de los matemáticos humanos”
3 minutos de lectura'

El último modelo de razonamiento experimental de OpenAI ha logrado obtener una medalla de oro en las Olimpiadas Internacionales de Matemáticas (IMO) de 2025, logrando resolver cinco de los seis problemas “al nivel de los matemáticos humanos”.
Las Olimpiadas Internacionales de Matemáticas reúnen anualmente participantes de todos los países para poner a prueba los conocimientos y capacidades de razonamiento de estudiantes de esta materia, evaluando las habilidades para afrontar situaciones nuevas y el uso de la creatividad, con pruebas de alta dificultad.
En este sentido, OpenAI ha compartido que su último modelo grande de lenguaje (LLM) de razonamiento experimental ha logrado una puntuación equivalente a una medalla de oro en las IMO 2025, poniéndose a la altura de los matemáticos humanos.
Este modelo, que está en pruebas y no ha sido presentado, ha conseguido resolver cinco de las seis pruebas incluidas en esta edición de las olimpiadas, con una puntuación de 35 puntos, siendo 42 la puntuación máxima.
Así lo ha detallado el investigador de OpenAI, Alexander Wei, en una publicación en la red social X (antigua Twitter), donde ha manifestado que se trata de una de las pruebas matemáticas “más prestigiosa del mundo” y que, por tanto, se trata de “un gran desafío de larga data en IA”.
1/N I’m excited to share that our latest @OpenAI experimental reasoning LLM has achieved a longstanding grand challenge in AI: gold medal-level performance on the world’s most prestigious math competition—the International Math Olympiad (IMO). pic.twitter.com/SG3k6EknaC
— Alexander Wei (@alexwei_) July 19, 2025
Resolver los problemas en el mismo tiempo que un humano
Concretamente, se ha sometido al modelo a los problemas planteados en la IMO 2025 con las mismas reglas que los concursantes humanos. Esto es, dos sesiones de examen de cuatro horas y media, sin herramientas ni internet, durante las que el modelo ha tenido que leer los enunciados oficiales de los problemas y escribir sus respuestas en lenguaje natural.
Así, Wei ha matizado que se trata de un hito relevante porque el tipo de problemas que se incluyen en las pruebas IMO requieren “un nuevo nivel de pensamiento creativo sostenido, en comparación con los parámetros anteriores”.
Según ha dicho, el progreso en este ámbito “exige ir más allá del paradigma del aprendizaje directo de recompensas claras y verificables”, por lo que el modelo debe elaborar argumentos complejos y sólidos “al nivel de los matemáticos humanos”, ha subrayado.
Cabe destacar que entre los resultados de la edición de este año, solo 67 de los 630 concursantes que se presentaron han recibido medallas de oro, es decir, aproximadamente el 10 por ciento de los participantes.
A pesar de todo ello, Wei ha especificado que este LLM es un modelo experimental enfocado a la investigación de la compañía, por lo que ha aclarado que no planean lanzar “nada con este nivel de capacidad matemática” durante “varios meses”. Asimismo, ha recordado que OpenAI tiene previsto lanzar su próximo modelo de IA GPT-5 “pronto”.
1Desarrollan en Argentina un autotest para la detección temprana de cáncer de colon usando IA
2Las 6 principales estafas virtuales que ya usan la IA para engañar mejor a sus víctimas
3Cómo rastrear un celular: el truco para hacerlo en iOS y Android
4Google Fotos suma 6 nuevas funciones geniales gracias a la IA Nano Banana




