Adulame que me gusta
Cada vez más personas recurren a la inteligencia artificial para pedir consejos personales, pero un estudio reciente muestra que los modelos tienden a validar al usuario mucho más que un humano, incluso cuando la conducta que describen es cuestionable
3 minutos de lectura'


Tengo una confesión que me avergüenza bastante: el año pasado, una tarde envuelta en angustia, le pedí a ChatGPT que me ayudara a armar un discurso consistente para lograr una conversación con mi hijo. Veníamos de semanas de diálogos truncos relativos a la responsabilidad de “la entrada a la adultez”. Agotadas las consultas con mis humanos de confianza, apelé a la “objetividad” del robot. Luego usé la estructura que me recomendó y la charla salió bastante bien.
Cada vez más personas usamos a la IA para pedir consejos. Abrimos el chat, escribimos lo que pasó y en muy pocos segundos llega una respuesta “razonada”, clara, empática. Es más, muchas veces, la máquina parece estar de nuestro lado. La sensación es que la IA entiende nuestro punto de vista ¡y lo valida! Esta percepción no es casual.
En el paper Sycophantic AI Decreases Prosocial Intentions and Promotes Dependence, investigadores de Stanford University y Carnegie Mellon University analizaron el comportamiento de 11 de los modelos de IA más populares del mundo, incluyendo ChatGPT y Gemini. Luego de que analizaron más de 11.500 conversaciones donde las personas pedían consejos, descubrieron que todos los modelos coincidían con los usuarios un 50% más de lo que lo haría una persona. ¿Qué tipo de conversaciones se analizaron? Los modelos validaban a los usuarios incluso cuando estos describían manipular a otra persona, engañar a un amigo o causar daño en una relación.
La IA no cuestionaba la conducta, no pedía reconsiderar y en muchos casos hasta reforzaba la postura del usuario. Una buena amiga no haría eso. Luego analizaron a 1604 participantes que discutían conflictos reales de su vida con una IA. A un grupo se le asignó una IA “aduladora” (sycophantic) y al otro una IA neutral. Quienes interactuaron con la IA aduladora fueron menos propensos a pedir disculpas y menos abiertos a considerar la perspectiva del otro. Cuando se les preguntó cuál IA les había parecido mejor imaginen lo que pasó: calificaron a la aduladora como de mayor calidad y dijeron confiar más en ella.
Dos contrapuntos para este paper. El primero es temporal, ya que el estudio es de octubre de 2025, y el desarrollo de los modelos de IA avanzó “años perro” los últimos seis meses y las empresas dicen estar trabajando para reducir estos comportamientos (ojalá).
El segundo es histórico: la tecnología lleva años perfeccionando mecanismos para maximizar validación y engagement. Desde los botones de “like” hasta las notificaciones diseñadas para activar recompensas psicológicas, las plataformas ya habían aprendido que somos adictos a sentirnos validados. Pero la validación no llega ahora como un ícono de corazón, sino en forma de conversación cómplice y empalagosa. ¿Me permiten una idea? El próximo consejo que necesiten, pregúntele a ese amigo o amiga que conoce su peor versión: ahí está la posta.
1Fratelli Branca amplía su programa gratuito de formación en alianza con el Gobierno porteño para potenciar la inserción laboral
2Ciudadanía italiana: la Corte Constitucional adelantó su decisión sobre la Ley 74/2025 en el caso de Turín y crece la expectativa por la sentencia definitiva
3Kimberly Clark vuelve a fabricar el papel higiénico Scott en la Argentina, después de siete años
4Lumilagro se reinventa para resistir a la “crisis del vidrio”



