Juega a dos puntas: Microsoft es el principal inversor en ChatGPT, y también prepara un competidor propio
Microsoft lleva invertidos más de 10.000 millones de dólares en OpenAI, la desarrolladora de ChatGPT, pero igual también construye un competidor, conocido como MAI-1, que tiene su propio chatbot, llamado Pi, de características similares a ChatGPT o Gemini, el chatbot de Google
- 2 minutos de lectura'
Microsoft está entrenando un nuevo modelo de Inteligencia Artificial (IA), conocido a nivel interno como MAI-1, que maneja 500.000 millones de parámetros y es “lo suficientemente grande” para competir con modelos de última generación lanzados por otras tecnológicas, como Google, Anthropic y OpenAI.
El equipo encargado de su desarrollo está supervisado por el exlíder de la IA de Google y director ejecutivo de la startup Inflection AI, Mustafa Suleyman, tal y como ha adelantado recientemente The Information.
Este medio también ha indicado que el nuevo modelo de IA en el que trabaja Microsoft, conocido a nivel interno como MAI-1, tendrá un tamaño mucho mayor que cualquiera de los modelos de código abierto más pequeños que Microsoft haya desarrollado previamente.
Esto significa que este modelo, que tendrá aproximadamente 500.000 millones de parámetros, requerirá más datos de potencia de computación y entrenamiento, lo que lo encarecerá, según fuentes consultadas por este medio.
Asimismo, MAI-1 se podrá basar en datos de formación y otras tecnologías de Inflection, que se enfoca en el desarrollo de la IA personalizada. Entre sus trabajos destaca Pi, un chatbot capaz de proporcionar conocimiento basado en los intereses y necesidades de los usuarios.
Con esta nueva IA, a la que Microsoft podría hacer referencia en la próxima conferencia para desarrolladores Microsoft Build (prevista para 21-23 de mayo), la tecnológica espera competir con los modelos de última generación de Google, Anthropic y OpenAI.
Conviene recordar que en los últimos meses Microsoft ha presentado diferentes modelos de lenguaje, como Phi-1, que trabaja con 1.300 millones de parámetros y se actualizó hace unos meses con Phi-1.5, con el que se obtuvo un rendimiento comparable al de modelos con un tamaño hasta cinco veces mayor.
La última iteración es Phi-2, capaz de obtener resultados de razonamiento y comprensión de lenguaje con un rendimiento “de vanguardia” entre los modelos con menos de 13.000 millones de parámetros, según avanzó hace unas semanas.
Europa PressOtras noticias de Inteligencia artificial
Más leídas de Tecnología
Código malicioso. Recomiendan no descargar estas dos extensiones de Google Chrome, ya que pueden vigilar los movimientos online
Dos formas simples. Cómo saber quién está conectado a mi wifi
Alerta. Las apps que deberías eliminar de tu celular para evitar virus
¿Niña o mascota? Así se vería Hello Kitty en la vida real, según la inteligencia artificial