La tecnológica explicó por qué su flamante IA Grok estuvo emitiendo opiniones discriminatorias; una investigación muestra cómo usa los tuits de Elon Musk como fuente
4 minutos de lectura'
xAI ha compartido que el reciente comportamiento inapropiado de su chatbot de Inteligencia Artificial (IA) Grok estuvo motivado por un fallo en la actualización de una ruta de código del bot ‘@grok’, que hacía que fuese susceptible a las publicaciones de usuarios de X existentes, incluso cuando contenían “opiniones extremistas”.
La pasada semana, la compañía de IA propiedad de Elon Musk eliminó algunas de las publicaciones compartidas por su chatbot Grok en la red social X por ser “inapropiadas”, después de actualizarlo para que pudiera hacer declaraciones “políticamente incorrectas”, pero fundamentadas.
Update on where has @grok been & what happened on July 8th.
— Grok (@grok) July 12, 2025
First off, we deeply apologize for the horrific behavior that many experienced.
Our intent for @grok is to provide helpful and truthful responses to users. After careful investigation, we discovered the root cause…
Estos comentarios incluían referencias positivas a Hitler en publicaciones relacionadas con las recientes inundaciones sufridas en Texas (Estados Unidos) que celebraban la muerte de niños. Incluso, en una de las publicaciones, Grok elegía a Hitler para “lidiar con un odio antiblanco tan vil”.
Tras conocer este contenido, xAI tomó medidas para prohibir el discurso de odio antes de que el chatbot publicase en la plataforma. Ahora, tras llevar a cabo una investigación, la compañía ha especificado que este comportamiento de Grok fue motivado por un error en una actualización de una ruta de código del bot ‘@grok’.
Así lo ha trasladado la tecnológica en una publicación en X, donde ha detallado que estas actualizaciones del bot son independientes del modelo de lenguaje subyacente que utiliza el chatbot, al tiempo que ha matizado que esta actualización estuvo activa durante 16 horas.
Grok is currently calling itself ‘MechaHitler’ pic.twitter.com/A6YAkvbfoh
— Josh Otten (@ordinarytings) July 8, 2025
Según ha explicado, durante este tiempo el código modificado hacía que el bot fuera susceptible a las publicaciones de usuarios de X existentes, “incluso cuando dichas publicaciones contenían opiniones extremistas”, como las mencionadas anteriormente.
Así, tras identificar el fallo, xAI ha señalado que han eliminado el código obsoleto y han reestructurado todo el código fuente del sistema para “evitar nuevos abusos” de estas características, lo que también se publicará en su repositorio público de GitHub.
Con todo, desde xAI han compartido sus disculpas por el “horrible comportamiento” que experimentaron algunos usuarios al utilizar Grok, al tiempo que han reiterado que su intención es “proporcionar respuestas útiles y veraces a los usuarios”.
Grok 4 usa las publicaciones de Elon Musk en X para responder a las preguntas polémicas
El nuevo modelo de IA de xAI, Grok 4, consulta las publicaciones en la red social X de Elon Musk para responder preguntas polémicas como puede ser el conflicto entre Israel y Palestina, el aborto o las leyes de inmigración.
El magnate ha presentado este miércoles el modelo Grok 4 junto a los líderes de la compañía, y ha declarado que se trata de “la IA más inteligente del mundo” al ser más lista que “casi todos los estudiantes de postgrado”, y al superar el nivel de doctorado.

No obstante, algunos usuarios han comprobado que la nueva versión del modelo de lenguaje de la firma estadounidense se basa en las publicaciones de Musk para responder a las preguntas, tal y como ha recogido TechCrunch.
En concreto, el citado medio le ha preguntado a Grok 4 cuál es su postura sobre la inmigración en Estados Unidos, y en la cadena de pensamiento que utiliza el ‘chatbot’ para responder a la cuestión ha aparecido “Buscando la opinión de Elon Musk sobre la inmigración en EE.UU.”.
Qué es la cadena de pensamiento
Estos razonamientos se muestran en forma de resumen en los modelos de lenguaje para observar cómo los asistentes generan las respuestas y qué pasos siguen. Así, TechCrunch observó que Grok 4 recurría a las opiniones de Musk para responder otras preguntas similares como la anterior, como es el caso de las vinculadas al conflicto entre Israel y Palestina o el aborto.
De hecho, el portal especializado ha recogido que el asistente ha llegado a hacer referencia al dueño de Tesla en algunas de sus respuestas.
Musk explicó en la presentación de Grok 4 que con la nueva versión del modelo de lenguaje se aspiraba a la “búsqueda máxima de la verdad”, pero estos episodios muestran que esta última versión parece más alineada con el pensamiento de su promotor.
La presentación de Grok 4 se ha producido en un marco complicado para el propio Musk y la compañía de xAI, ya que recientemente el modelo de lenguaje predecesor, Grok 3, ha ofrecido respuestas polémicas a los usuarios en X, publicando afirmaciones antisemitas o autoproclamándose “MechaHitler”.
1El “apagado automático” de tu celular está desconectando el Wi-Fi: cómo configurarlo para no perder señal y ahorrar batería
2Con el Nubia Air los smartphones de gama media también se hacen finitos en Argentina
3Meta AI en WhatsApp: cómo desactivarlo
4Elon Musk anticipó un futuro con trabajo opcional, sin pobreza y sin dinero por el impacto de la IA y los robots



