Un análisis de The New York Times revela que una de cada diez respuestas elaboradas por los AI Overviews es incorrecta, lo que se traduce en “cientos de miles de imprecisiones por minuto”
6 minutos de lectura'

La inteligencia artificial (IA) cobra cada vez más protagonismo en el universo digital e impulsa nuevas formas de búsqueda y consumo de contenido. Los AI Overviews —una función de Gemini especializada en generar resúmenes sobre distintos temas, ubicada en la parte superior de los resultados de Google—son un ejemplo de ello.
Su presencia a la hora de buscar información puede ser de gran ayuda: presenta datos de manera ordenada y concisa, así como también sugiere links relevantes. Sin embargo, sus respuestas no siempre son precisas o correctas, según revela un análisis de The New York Times.
Específicamente, una de cada diez respuestas de los AI Overviews es incorrecta. Dicho en otras palabras, millones de mentiras se difunden a diario en todo el mundo.
The New York Times realizó este análisis en conjunto con Oumi, una startup que se dedica al desarrollo de modelos de IA. El experimento comenzó el año pasado y consistió en el estudio de 4326 búsquedas. En aquel entonces, Gemini 2.5 se presentaba como el mejor modelo de la compañía.
En la primera prueba, la tasa de precisión fue del 85%. Luego, con la actualización de Gemini 3, el resultado ascendió a 91%. No obstante, dado que Google procesa más de cinco billones de búsquedas al año, las imprecisiones pueden ser “cientos de miles por minuto”.
Pero, ¿cuáles son estos errores? Entre los casos más relevantes, el informe menciona uno que tiene al artista jamaiquino Bob Marley como protagonista. Cuando los investigadores consultaron a AI Overviews en qué año la casa del músico se convirtió en museo, la respuesta que arrojó el sistema fue 1987. Sin embargo, el dato correcto es 1986, de acuerdo a una publicación del Daily Gleaner. Además, AI Overviews citó tres sitios con información confusa e imprecisa sobre el tema.
Otro ejemplo muestra que, cuando se le preguntó al modelo en qué fecha el violonchelista Yo-Yo Ma fue incluido en el Salón de la Fama de la Música Clásica, el sistema negó la existencia de la institución. En detalle, la respuesta fue: “Según los registros disponibles, no existe una única institución conocida como el ‘Salón de la Fama de la Música Clásica’ a la que Yo-Yo Ma haya sido incorporado en un año específico”. Junto a este texto, el modelo incluyó el propio sitio de la organización.
Pratik Verma, director ejecutivo de Okahu, firma que ayuda a las personas a utilizar nuevas tecnologías, sostuvo que, si bien la IA de Google tiende a ser precisa, es fundamental verificar la información. “Nunca confíes en una sola fuente. Siempre compara lo que obtienes con otra fuente”, señaló a The New York Times.
Desde Google reconocieron las fallas de sus modelos. Incluso, la compañía aclara debajo de cada resumen que “la IA puede cometer errores”. Sin embargo, también indicaron que el análisis de Oumi es erróneo ya que se basó en una prueba de referencia creada por OpenAI y, al mismo tiempo, contenía información incorrecta. “Este estudio tiene fallas importantes. No refleja lo que la gente realmente busca en Google”, dijo Ned Adriance, portavoz de Google.
¿Qué hay detrás de las alucinaciones de la IA?
Sergio Sirotinsky, profesor de IA en la Universidad del CEMA, reflexiona acerca del impacto de las alucinaciones sobre la sociedad: “En tareas creativas, como brainstorming, redacción o generación de ideas, un pequeño margen de ‘imaginación’ o ‘creatividad’ puede aportar valor. El problema aparece cuando trasladamos esa misma lógica a ámbitos donde el error tiene consecuencias importantes, como salud, derecho, finanzas o información periodística".
Y añade que, si bien la IA representa “uno de los mayores saltos de productividad que vimos en décadas”, también trae consigo un costo: la posibilidad de error.

Ahora bien, ¿es posible eliminar por completo las alucinaciones de los modelos de IA? Según los expertos consultados por LA NACION, se trata de un objetivo “prácticamente imposible”. ¿El motivo? Su arquitectura actual.
“Los modelos de lenguaje tienen una arquitectura que se llama transformer, que es un motor de predicciones de tokens. Entonces, en lugar de ir a buscar una base de datos con hechos concretos verificados, que eso no existe, el modelo lo que hace es predecir el siguiente token basándose en probabilidad estadística. Fueron entrenados de esa manera, para predecir lo siguiente", explica Fredi Vivas, CEO de RockingData, profesor e ingeniero especializado en IA.
En esta línea, agrega que mientras el objetivo sea predecir el texto probable, siempre habrá un margen de error. “El modelo está hecho para priorizar la fluidez y la coherencia, y no la verdad factual”, especifica.
“No se trata de una mentira deliberada, sino de una limitación técnica propia del funcionamiento del modelo”, suma Sirotinsky.
Por este motivo, ambos expertos remarcan la importancia de incorporar técnicas para mitigar las imprecisiones de esta tecnología. Algunas de ellas son: la Retrieval-Augmented Generation (RAG), que consiste en conectar el modelo a fuentes externas verificadas; el Aprendizaje por Refuerzo con Retroalimentación Humana (RLHF), basado en la calificación humana de respuestas; y la verificación post-generación, donde el sistema comprueba sus propias salidas.
“La clave no es perseguir una perfección teórica que hoy no parece alcanzable, sino construir una IA confiable, auditable y con supervisión humana, especialmente en los casos de uso de alto impacto”, dice Sirotinsky.

Por su parte, Vivas prevé que, en un futuro, los modelos de IA evolucionarán y tendrán un mejor funcionamiento. “La IA no será como la conocemos hoy”, asegura.
Alfabetización digital
Sirotinsky considera que la defensa contra las alucinaciones no solo debe darse en materia tecnológica, sino también educativa. “Es fundamental capacitar a las personas no solo para usar estas herramientas, sino para hacerlo de manera crítica y responsable. Entender cómo funcionan, por qué pueden equivocarse y en qué contextos requieren verificación humana es parte de las nuevas competencias digitales que la sociedad necesita desarrollar”, profundiza.
En este escenario, la responsabilidad sobre la validación y el criterio final humano serán esenciales. “El problema no es solo que la IA se equivoque, sino la velocidad con la que una respuesta errónea puede escalar cuando el usuario la asume como verdad sin contrastarla”, concluye.
1Violentos incidentes cerca de la Gobernación, mientras Kicillof protestaba con intendentes en Buenos Aires
2Por qué el precio del usado se convirtió en el nuevo problema del mercado inmobiliario: “Tiene un atraso de casi el 30%”
- 3
Massimo Faggioli: “Para Trump el Vaticano debe someterse a su mesianismo político”, pero León XIV “sacó sus garras”
4Milei: cuando toca la mala hora


