Un sitio especializado hizo la comparación de modelos de inteligencia artificial con prompts idénticos; cuáles son los más potentes, rápidos y baratos del mercado
3 minutos de lectura'

La carrera global por el desarrollo de inteligencia artificial avanza a gran velocidad y una reciente comparación entre modelos muestra cómo distintas empresas tecnológicas compiten por liderar áreas clave como capacidad de razonamiento, velocidad de respuesta, latencia, precio y tamaño de contexto en las respuestas.
Según el sitio especializado Artificial Analysis, en el apartado de inteligencia, los modelos que encabezan el ranking son Gemini 3.1 Pro, desarrollado por Google, y GPT‑5.4 de OpenAI. Ambos aparecen como los sistemas con mayor capacidad de procesamiento y razonamiento dentro de la comparación. Detrás de ellos se ubican GPT‑5.3 Codex y Claude Opus 4.6, este último creado por Anthropic.
Las métricas de rendimiento se obtuvieron mediante pruebas estandarizadas con prompts idénticos aplicados a 431 modelos distintos, lo que permite comparar su desempeño de manera objetiva.

Los modelos más rápidos
En cuanto a velocidad de generación de texto (tokens por segundo), el ranking cambia. El modelo más veloz es Mercury 2 con aproximadamente 732 tokens por segundo, seguido por Granite 4.0 H Small, desarrollado por IBM, con alrededor de 452 tokens por segundo.
Detrás aparecen modelos de la familia Qwen 3.5, creados por Alibaba, que también destacan por su rendimiento.
Menor latencia: respuestas casi instantáneas
Otra métrica clave es la latencia, es decir, el tiempo que tarda el sistema en empezar a responder. Aquí lidera Gemini 2.5 Flash‑Lite con aproximadamente 0,33 segundos, seguido muy de cerca por Qwen 3.5 0.8B con 0,34 segundos.
También aparece entre los modelos de baja latencia Apriel‑v1.5‑15B‑Thinker, lo que demuestra que diferentes laboratorios están optimizando sus sistemas para ofrecer respuestas más inmediatas.
Los modelos más baratos
El precio por millón de tokens es otro factor clave para empresas y desarrolladores. Según la comparación, el modelo más económico es Qwen 3.5 0.8B, con un costo aproximado de 0,02 dólares por millón de tokens.
Entre las alternativas de bajo costo también se menciona Gemma 3n E4B, otro modelo desarrollado por Google.

Contexto: la capacidad de “memoria” del modelo
El tamaño de la ventana de contexto —la cantidad de información que un modelo puede procesar en una sola interacción— es otro indicador relevante. En este rubro destaca Llama 4 Scout de Meta, con una impresionante capacidad de hasta 10 millones de tokens.
Le sigue Grok 4.20 Beta 0309, desarrollado por xAI, con cerca de 2 millones de tokens, mientras que Gemini 2.0 Pro Experimental también figura entre los modelos con mayor contexto disponible.
Una competencia tecnológica cada vez más intensa
La comparación refleja cómo la industria de la inteligencia artificial se está diversificando rápidamente. Mientras algunos modelos priorizan capacidad de razonamiento, otros se enfocan en velocidad, eficiencia o costos más bajos.
Esta competencia entre gigantes tecnológicos y nuevos laboratorios de IA anticipa un escenario en el que los modelos serán cada vez más especializados, con herramientas optimizadas para programación, análisis de datos, generación de contenido o asistentes conversacionales avanzados.
Otras noticias de ChatGPT
Cómo se usa. La nueva función del ChatGPT que te permite tener tu propio asesor financiero preparado por expertos
Para crear software. OpenAI lleva Codex a los dispositivos móviles con iOS o Android
Cómo aprovechar mejor tu suscripción. La IA tiene un idioma favorito para trabajar, y te permite hacer más con menos tokens
- 1
Oracle y el Ministerio de Economía lanzan cursos gratuitos sobre inteligencia artificial, datos, software y ciberseguridad
2Cómo descargar música a tu celular en simples pasos
3Los lentes inteligentes de Meta: son furor, pero aumenta la preocupación porque son “una invasión de la privacidad”
4El lanzamiento masivo de satélites está llenando de hollín la atmósfera, advierten los expertos







