El director de Director de Datos e IA de Schibsted News Media plantea que la IA solo tiene sentido en los medios si mejora el periodismo de interés público, bajo reglas editoriales claras, supervisión humana y métricas centradas en la confianza
14 minutos de lectura'


Para el mexicano Juan Carlos López Calvet, Director de Datos e Inteligencia Artificial de Schibsted News Media -uno de los mayores conglomerados de medios escandinavos-, la discusión relevante sobre inteligencia artificial en medios ya no pasa por la fascinación tecnológica, sino por una pregunta más concreta: cómo usarla para fortalecer el periodismo de interés público sin degradar su misión editorial. En esa línea, sostiene que el valor de la IA no debería medirse solo por su capacidad de ahorrar tiempo o bajar costos, sino por su aporte real a la calidad, la comprensión y el alcance del trabajo periodístico.
En diálogo con LA NACION antes de su participación en el Digital Media Latam 2026 de Bogotá, Colombia, el ingeniero pone como ejemplo proyectos que permiten ampliar el acceso a contenidos complejos mediante nuevos formatos, como la conversión automatizada de artículos en piezas audiovisuales. Pero insiste en que el mérito no está únicamente en la eficiencia del proceso, sino en que esa transformación obliga a revisar la narrativa, la evidencia y el contexto para preservar el rigor. La tecnología, dice, sirve cuando ayuda a descubrir historias, mejorar productos y llegar a más audiencias, no cuando se limita a multiplicar formatos como una fotocopiadora con esteroides.
Frente a una industria que suele incorporar IA por la puerta de la productividad, el ejecutivo remarca la necesidad de una gobernanza editorial firme. Eso implica marcos de uso, métricas alineadas con el valor público, límites para los contenidos sensibles y humanos con poder de veto en todo el proceso. A su juicio, el riesgo más grande aparece cuando el éxito se mide solo con indicadores como clics, engagement o tiempo de permanencia, porque allí el periodismo corre el peligro de hacerse más rápido, pero no necesariamente mejor.
López Calvet también advierte sobre otros frentes decisivos: la capacidad de explicación de los modelos, la preservación de una plaza pública no completamente fragmentada por la personalización y la defensa del rol humano en tareas centrales como la verificación, la edición y el juicio ético. En su visión, desaparecerán trabajos rutinarios y repetitivos, pero no el periodista como figura indispensable para dotar de sentido, matiz y responsabilidad a la información. La consigna, resume, no es reemplazar, sino potenciar; una diferencia pequeña en palabras, pero enorme en sus consecuencias.
- Usted habla de “fortalecer el periodismo de interés público” con data e IA. ¿Cuál es el mejor ejemplo de un proyecto en el que la tecnología no solo mejoró eficiencia, sino que produjo mejor periodismo?
- El más claro es cuando combinamos datos, modelos y flujo editorial para ampliar el acceso y la comprensión de noticias de interés público. En Schibsted proyectos como Videofy han demostrado algo importante, convertir artículos complejos en piezas audiovisuales accesibles permite que investigaciones y explicaciones lleguen a audiencias que no consumen texto largo, aumentando la cobertura cívica y la comprensión ciudadana, no solo la velocidad de producción. Videofy automatiza muchas tareas de producción, pero lo relevante es que obligó a repensar la estructura narrativa y la selección de evidencia para que la versión en video mantuviera rigor y contexto, y eso elevó la calidad final del producto, no solo la cantidad de formatos disponibles. En paralelo, nuestra estrategia de IA ha puesto énfasis en usar modelos para identificar patrones en grandes volúmenes de datos que luego permiten leads de investigación, asignación priorizada de recursos y verificaciones asistidas. Cuando esos flujos se diseñan con periodistas desde el inicio, la tecnología amplifica la capacidad de encontrar historias que, sin ella, quedarían ocultas entre ruido y datos masivos.

- En casi todos los medios la IA entra por la puerta de la productividad. ¿Cómo evita que esa lógica termine redefiniendo la misión editorial: ¿hacer más, más rápido… aunque no necesariamente mejor?
- La respuesta es gobernanza editorial y medidas de éxito alineadas con el valor público. La IA empuja a hacer más por menos, pero si las métricas y los incentivos solo premian volumen o velocidad, el objetivo de nuestra misión se pone en peligro. En Schibsted, cuidamos que cada herramienta de productividad tenga: un marco editorial que describa qué significa “mejor” para ese producto; humanos responsables con poder de veto editorial (human in the loop); métricas de calidad cualitativas y cuantitativas que midan confianza y no solo clics. En la práctica eso implica fases de co-diseño con redacción, límites de uso automatizado para contenidos sensibles y procesos de revisión obligatoria para piezas que afectan la opinión pública o la integridad de fuentes.
- Schibsted viene trabajando automatización, verificación y modelos generativos con foco en integridad editorial, explicabilidad (explainability) y privacidad. ¿Cuál de esas tres dimensiones le resulta hoy más difícil de defender cuando hay presión por innovar rápido?
- Todas son críticas, pero la capacidad de explicación suele ser la más compleja de sostener cuando hay prisa por innovar. La integridad editorial y la privacidad están ancladas en normas y en contratos que podemos poner por escrito, como nuestras posiciones sobre licencia de contenido y crawling (proceso en el que los robots de motores de búsqueda exploran, leen y analizan el contenido y los enlaces de sitios web para indexarlos), y suelen activarse con controles legales y de producto. Esa capacidad de explicación choca con la manera que los modelos de lenguaje funcionan, donde no siempre es sencillo trazar por qué el sistema propuso una frase o una imagen. Defender la explicabilidad requiere tiempo, inversión en herramientas, y a veces limitar el uso de modelos hasta que podemos demostrar cómo y por qué toman decisiones. Por el momento, en Schibsted, tenemos sólo un servicio donde la IA toma decisiones autónomas. Es un servicio que chequea qué artículos no he leído desde la última vez que entré al periódico y me muestra las notas más importantes desde la última vez que leí las noticias. Esta decisión está basada en datos que podemos explicar así que por el momento siempre tenemos un humano a cargo de todas las decisiones, y tal vez en un futuro cuando tengamos explainability, podremos dejar a los algoritmos tomar más decisiones autónomas.
Nuestra estrategia de IA ha puesto énfasis en usar modelos para identificar patrones en grandes volúmenes de datos que luego permiten leads de investigación, asignación priorizada de recursos y verificaciones asistidas”
- Usted plantea el principio de enhance, not replace (mejorar no reemplazar). En la práctica, ¿qué tareas periodísticas cree que sí van a desaparecer, aunque no desaparezcan los periodistas?
- Desaparecerán tareas rutinarias y repetitivas que no aportan juicio editorial, por ejemplo: transcripciones manuales, etiquetado básico, generación de primeros borradores de notas muy estructuradas, redacción de piezas con formato fijo como resúmenes deportivos básicos o comunicados oficiales con datos cuantitativos, y gran parte del trabajo de montaje técnico en formatos estándar. Eso no significa que los periodistas desaparezcan. La parte esencial del oficio, como conseguir fuentes, la verificación en profundidad, la construcción de narrativa, el juicio ético y la edición que preserva matices, seguirá siendo humana. Además, la desaparición de tareas repetitivas suele liberar tiempo para trabajo investigativo y para mejorar el periodismo de análisis, siempre que la organización invierta la productividad en calidad y no solo en escala. En Schibsted tenemos ese principio.
- La personalización promete relevancia, pero el periodismo también necesita construir conversación común. ¿Dónde pone usted el límite para que un buen algoritmo no termine rompiendo la plaza pública?
- La personalización es útil para relevancia, pero un medio debe reservar espacios no personalizados que expongan a la audiencia a la información que la comunidad necesita para decidir colectivamente. Por ejemplo, noticias de interés público, cobertura electoral, emergencias y artículos explicativos. También conviene limitar algoritmos que optimicen únicamente por afinidad, poniendo mecanismos que garanticen diversidad, pluralidad de fuentes y prioridad a la comprobación. En la práctica definimos reglas de priorización editorial para las plazas más importantes de nuestras destinaciones digitales, al mismo tiempo que en caso como noticias deportivas, estamos experimentando con IA que tiene más oportunidad de seleccionar las noticias que se muestran.
- Si tuviera que elegir una sola métrica para evaluar si un producto de IA en medios realmente funciona, ¿cuál sería? ¿Y qué métrica le parece más peligrosa cuando se la toma como verdad revelada?
- Sería una métrica de confianza editorial que combine: porcentaje de contenido que pasan controles de calidad editorial, porcentaje de correcciones, y mediciones de confianza del lector. Esa métrica refleja si el producto mantiene estándares periodísticos. La métrica más peligrosa es el engagement puro, por ejemplo el CTR (Click Through Rate o tasa de clics) o el tiempo de permanencia tomado aisladamente. Es eficaz comercialmente, pero puede impulsar decisiones que erosionen contexto, complejidad y confianza.

- En Schibsted mostraron casos que van desde asistentes de escritura y analítica predictiva hasta generación de video desde artículos. ¿Qué aprendieron de los proyectos que técnicamente funcionaban, pero editorialmente no terminaban de convencer?
- Los casos técnicos que “funcionaban” pero no convencieron al periodismo suelen compartir causas: falta de co-diseño con redactores, ausencia de control de calidad editorial en producción y métricas mal alineadas. Aprendimos que la solución técnica debe incorporarse al flujo de trabajo real del periodista, no imponerse como una capa adicional. También vimos que los outputs generativos necesitan señales de estilo y normas de atribución claras, bibliotecas de recursos autorizados y un proceso de revisión que conserve la voz de el periódico (o brand como lo llamamos en Schibsted) y la intención de la pieza. En proyectos como Videofy, el aprendizaje clave fue construir librerías de audio y gráficos y ejemplos de “gold standard” para enseñar al modelo cómo queremos que se comunique la información, y mantener humanos en el ciclo de producción.
- Los dashboards suelen estar llenos de datos y vacíos de contexto. Usted ha dicho que uno de los problemas es que los insights no son fácilmente accesibles para los periodistas. ¿Cómo se diseña una capa de IA que acerque inteligencia útil sin convertir al reportero en rehén del panel?
- Diseño desde la utilidad y la autonomía del periodista. Mejor que dashboards llenos de números, preferimos interfaces conversacionales integradas en el CMS que permitan preguntar en lenguaje natural, aceptar, editar o descartar sugerencias con facilidad. También es clave que los sistemas ofrezcan controles granulares para activar o desactivar recomendaciones, y que los periodistas puedan configurar alertas relevantes. Un principio: la IA reduce fricción, no la sustituye, y la interfaz debe facilitar la edición humana más que imponer acciones automáticas. Esto fue uno de los parámetros más importantes en nuestras iniciativas de herramientas internas, donde la integración con el CMS (herramienta de publicación) y la usabilidad definieron el éxito. Al mismo tiempo estamos diseñando una herramienta que llamamos ARIA donde cualquier persona en la compañía (no solo periodistas) puede hacer preguntas a nuestros datos por medio de herramientas como Slack o ChatGPT. Mi objetivo para esa herramienta es democratizar el acceso a la información de datos.
- Cuando habla de IA responsable menciona confianza, inclusión y humanos responsables de las decisiones. ¿Qué error concreto cometieron o estuvieron cerca de cometer que les hizo endurecer esas reglas?
- Tuvimos instancias donde resúmenes automáticos y piezas generadas por modelos no dejaban claro el origen de la información o proporcionaban información que era correcta antes, pero ahora es incorrecta (por ejemplo, tuvimos ocasiones donde el resumen automático que nombré anteriormente escribió: “El expresidente Trump...”. Eso nos llevó a endurecer reglas: revisión humana para piezas sensibles, limitaciones a lo que nuestros modelos pueden escribir y transparencia (una zona en nuestros periódicos donde escribimos acerca de los errores cometidos por humanos o por IA). Este conjunto de medidas ahora forma parte de nuestra posición pública y de la manera que utilizamos los modelos de IA.
- Su medio firmó una alianza con OpenAI para integrar contenido en sus productos con atribución clara. Desde la mirada de un medio, ¿cuál es el verdadero negocio ahí: distribución, aprendizaje, ingresos, defensa de marca o evitar quedar afuera del nuevo sistema operativo de la información?
- No hay una sola respuesta, es una combinación estratégica. Primero, acceso a capacidades técnicas que aceleran la innovación y permiten nuevos productos, como generación de video o asistentes editoriales. Segundo, asegurar que nuestro contenido se use con atribución y en condiciones justas, lo que protege la relación con nuestra audiencia. Tercero, aprendizaje y ventaja competitiva, ya que la alianza facilita entendimiento profundo de cómo se desarrolla nuestro contenido en nuevas interfaces como ChatGPT. Y, por último, la distribución y la posibilidad de estar presente en las nuevas capas de acceso a la información, evitando quedar fuera de lo que algunos ya llaman el nuevo sistema operativo de la información. Para nosotros la alianza es una mezcla de defensa de valor, construcción de producto y exploración de nuevas fuentes de ingresos, con reglas claras sobre atribución y uso de contenido. Mi punto de vista personal (no el punto de vista de Schibsted) es que debemos estar presente en todos los medios para asegurar que nuestro contenido continúe sirviendo a nuestra misión cívica, al mismo tiempo que nos aseguramos de tener nuevas oportunidades de ingresos.
Cómo trabajan en Schibsted
Tomamos un conjunto de medidas que ahora forman parte de nuestra posición pública y de la manera que utilizamos los modelos de I: la revisión humana para piezas sensibles, limitaciones a lo que nuestros modelos pueden escribir y transparencia (una zona en nuestros periódicos donde escribimos acerca de los errores cometidos por humanos o por IA) ”
- Muchos medios usan IA para resumir. Pero resumir también es jerarquizar, y jerarquizar es editar. ¿Cómo garantizan que una síntesis automática no aplaste matices, contexto o incluso la intención periodística original?
- Garantizamos dos cosas: transparencia y control. Transparencia implica que cada resumen muestre los enlaces a las fuentes completas. Control significa que el resumen es editable por periodistas, que existe un modo “resumen asistido” en lugar de “resumen final automático”, y que los modelos son entrenados con ejemplos que preservan tono, intención y matices. Para todos nuestros artículos enforzamos la verificación humana antes de publicar. Esto combina la responsabilidad editorial del periodista y métricas de calidad para que la síntesis sea una ayuda, no una sustitución del criterio editorial.
- Usted se mueve entre ingeniería de plataformas, producto y estrategia editorial. ¿Dónde ve hoy el mayor malentendido entre tecnólogos y periodistas dentro de una redacción?
- El malentendido central es de objetivos y límites. Los tecnólogos tienden a medir éxito con automatización, mientras que los periodistas evalúan por rigor, matiz y consecuencias sociales. La solución pasa por crear objetivos compartidos, métricas mixtas y tiempos de aprendizaje conjunto. Integrar periodistas en squads (equipos) de producto desde el inicio, y darles poder real en decisiones de producto, reduce fricciones. Además, hay que invertir en alfabetización recíproca: que los periodistas entiendan las limitaciones técnicas, y que los ingenieros entiendan las prioridades éticas y de verificación.
- Si volvemos a hablar dentro de dos años, ¿qué le gustaría poder decir: “esto fue puro humo” y “esto sí cambió de verdad la manera de hacer y sostener periodismo”?
- Lo que creo que es mucho humo es el miedo que tenemos como industria en defender nuestro contenido hasta el último límite, en cuanto a evitar que los modelos de lenguaje usen éste mismo contenido para entrenar sus modelos. Creo que los modelos necesitan cada vez menos de nuestro contenido para ser entrenados, pero necesitan cada vez más nuestro contenido para mostrar la realidad en la que vivimos en “tiempo real”. Personalmente creo que debemos intentar desarrollar nuevas formas de comunicación desde nuestras compañías al mismo tiempo que hacemos nuestro contenido disponible a otros canales como Gemini o ChatGPT para asegurarnos que la sociedad todavía tiene la oportunidad de recibir contenido real, de calidad y de confianza en cualquier medio de consumo.
¿Quién es Juan Carlos López Calvet?
- Formación. Ingeniero en Telemática (Instituto Tecnológico Autónomo de México), con experiencia en tecnología con especialidad en IA aplicada a producto y medios.
- Carrera. Director de Data & AI en Schibsted Media. Lidera equipos que construyen herramientas editoriales basadas en datos y modelos para potenciar periodismo de interés público, con foco en integridad, explicabilidad y privacidad. Ha participado en la creación de iniciativas como Videofy y la estrategia de IA del grupo, y en acuerdos estratégicos con socios tecnológicos para integrar capacidades de modelos generativos con atribución y reglas claras. Integra el board de consejeros de la Asociación Mundial de Medios y Editores de Noticias (WAN-IFRA).
1“Tiene que andar”: el maíz que fue un éxito en Siberia ahora sorprende en la Patagonia
2El portazo de un veedor de la AFA profundiza la interna en el Gobierno
3Cuánto hay que ganar para ser de clase media en la ciudad de Buenos Aires
4“Que nos atienda el Presidente”: los transportistas de granos que están en las rutas ahora amenazan con un paro nacional






