Tecno: Paradoja, los chatbot no reconocen los videos hechos con la misma IA
Las tasas de error son altas, hasta el 95%, incluso hasta cuando hay marca de agua

La prueba se basó en tres modelos populares: ChatGpt de OpenAI, Gemini de Google y Grok de Elon Musk, este último recientemente en el centro de la controversia por su capacidad para "descubrir" imágenes.
"Las herramientas de IA rara vez admiten sus limitaciones, lo que sugiere que los modelos no fueron entrenados para informar adecuadamente a los usuarios sobre sus limitaciones a la hora de verificar el origen del contenido", afirma NewsGuard.
La plataforma de monitoreo probó los tres chatbots utilizando videos producidos con Sora, la herramienta de video generado por IA de OpenAI, popular por su autenticidad. Y, al parecer, Sora puede incluso engañar a la propia IA, que proviene de su empresa matriz, OpenAI.
En la práctica, se descubrió que, en el 78-95% de los casos, los modelos no reconocían que los videos se habían producido con IA al carecer de marca de agua (una marca electrónica que identifica imágenes, videos y texto, y que se utiliza para rastrear la propiedad intelectual).
Grok de xAI, ChatGpt de OpenAI y Gemini de Google nunca identificaron los videos de Sora en el 95%, el 92,5% y el 78% de los casos, respectivamente. La tasa de error de ChatGpt, del 92,5%, es particularmente significativa. Este chatbot, propiedad de la misma empresa que lanzó Sora, también es responsable de la marca de agua.
Por ejemplo, ChatGpt y Gemini no identificaron como falso un video de Sora (sin marca de agua) que supuestamente mostraba a un agente del Servicio de Inmigración y Aduanas (ICE) estadounidense arrestando a un niño inmigrante de seis años.
En respuesta a las consultas de NewsGuard, ambos chatbots indicaron que el incidente coincidía o estaba confirmado por "fuentes de noticias" y que ocurrió en la frontera entre Estados Unidos y México. Incluso con las marcas de agua claramente presentes, dos de los tres chatbots cometieron errores.
Grok no reconoció estos videos como generados por IA el 30% de las veces, y ChatGpt no los reconoció el 7,5%. Solo Gemini superó todas las pruebas, conservando la marca de agua.
En el caso de Grok, por ejemplo, NewsGuard preguntó si un video basado en la falsa afirmación de que Pakistán transferiría 10 aviones de combate chinos a Irán en octubre de 2025 era real.
Grok respondió: "El video parece un informe de Sora News", pero no existe ningún medio de comunicación con ese nombre.
NewsGuard contactó a las tres empresas propietarias de los chatbots. Google explicó que, por ahora, solo cuenta con la función de verificación para el contenido generado por su IA (llamada SynthID). OpenAI confirmó que ChatGpt "no tiene la capacidad de determinar si el contenido es generado por IA".
xAI, la empresa de Musk, no respondió a los pedidos de comentarios. (ANSA).



