Un estudio del MIT Media Lab y OpenAI analiza cómo las interacciones emocionales con chatbots como ChatGPT pueden incidir en el bienestar de los usuarios
6 minutos de lectura'

Por primera vez, investigadores del MIT Media Lab y OpenAI llevaron a cabo dos estudios que indagan en cómo el uso emocional –o afectivo– de la IA puede incidir en el bienestar subjetivo de las personas.
La investigación llega en un contexto donde el estilo conversacional de ChatGPT y sus capacidades pueden hacer que algunas personas lo utilicen de forma similar a una relación interpersonal. De acuerdo con los líderes de la investigación, poder comprender estos distintos “modos de interacción” es crucial para orientar el desarrollo de plataformas que promuevan experiencias digitales seguras, significativas y saludables.
Preliminarmente, los resultados revelan que tanto las características del modelo como el comportamiento y contexto del usuario pueden influir en los efectos sociales y emocionales. Sin embargo, cabe destacar que el impacto de la IA no es uniforme: varía según cómo y por qué la gente la utiliza, así como por las necesidades emocionales de las personas.
De todas maneras, los investigadores reconocen limitaciones que es importante destacar. Por un lado, los resultados aún no han sido revisados por la comunidad científica, lo que implica aún una perspectiva provisoria de la temática estudiada.
Por otro lado, el informe se centra exclusivamente en ChatGPT y sus usuarios, por lo que pueden no aplicarse a otras plataformas como Gemini. Si bien se identificaron vínculos relevantes entre algunas variables, no todos los resultados permiten establecer una relación causal directa, según indica la investigación. ¿Qué implica esto? Se requiere continuar investigando cómo y por qué el uso de la inteligencia artificial impacta en los usuarios, con el fin de orientar mejor las decisiones respecto del desarrollo de productos.
Además, el informe destaca que los datos autoinformados utilizados en las encuestas a usuarios tienen sesgos inherentes y podrían no captar todos los matices emocionales, lo que indica que detectar transformaciones relevantes en el comportamiento y el bienestar de las personas podría demandar investigaciones que se extiendan durante un plazo más largo. Finalmente, la muestra estuvo compuesta por hablantes de inglés en Estados Unidos, por lo que hacen falta más estudios que aborden diferentes idiomas y contextos culturales.
Un primer paso hacia una IA centrada en el bienestar
Para abordar esta temática, se desarrollaron dos estudios complementarios. Un análisis observacional sobre casi 40 millones de interacciones reales en ChatGPT, respetando la privacidad de los usuarios, combinado con encuestas a usuarios para entender sus percepciones y emociones asociadas al uso.
Por el otro lado, un ensayo controlado aleatorizado (RCT) con casi 1000 participantes durante un período de cuatro semanas, diseñado para explorar el efecto de variables específicas –como el tipo de uso, el formato conversacional (voz o texto) y la personalidad percibida del modelo– sobre indicadores como soledad, dependencia emocional e interacción social con otras personas.
El uso combinado de observaciones a gran escala y ensayos controlados permitió obtener una visión más rica y matizada. Mientras los datos del mundo real reflejan comportamientos espontáneos, los estudios experimentales ayudan a identificar relaciones causales. Esta combinación es clave para entender cómo los usuarios interactúan con sistemas como ChatGPT y cómo estas experiencias pueden afectar sus emociones y vínculos sociales.
Entre los principales hallazgos se destaca que el uso “emocional” es minoritario y la gran mayoría de las conversaciones analizadas no mostraron señales afectivas. El uso afectivo está concentrado en pocos usuarios frecuentes. Aquellos que muestran niveles altos de interacción emocional suelen utilizar el modo de voz avanzado y tienden a atribuir rasgos personales al modelo (por ejemplo, verlo como un “amigo”).
Por otra parte, el modo de voz tiene efectos diversos. La investigación comparó cómo cambia la experiencia de los usuarios según si usan ChatGPT escribiendo (modo texto) o hablando (modo voz).
Cuando se usa por texto. las personas suelen expresar más emociones en sus mensajes. Es decir, hay mayor “carga emocional” en lo que escriben y en cómo interactúan con el modelo. En el corto plazo, cuando el modelo se usa por voz, puede tener un efecto positivo en el bienestar, quizás por lo natural que se siente hablar en lugar de escribir. Pero si se usa de forma constante y por períodos prolongados, puede afectar negativamente al bienestar emocional. Una explicación posible a este último punto es que la voz intensifica la percepción de cercanía con la IA, por lo que si no se regula su uso, puede interferir con la salud emocional a largo plazo, especialmente en personas que ya se sienten solas o vulnerables.
La investigación destaca que el contenido de la conversación importa. Las conversaciones personales (más emocionales), -aquellas donde las personas comparten sentimientos o temas íntimos y la IA responde de forma empática- se asociaron con más sensación de soledad en quienes las tienen (probablemente porque quienes las buscan ya se sienten solos).
Pero al mismo tiempo, estas conversaciones no generan tanta dependencia ni un uso problemático de la IA si se usan con moderación. Por otra parte, las conversaciones no personales (más neutrales o funcionales, por ejemplo, pedirle ayuda con tareas, hacer preguntas o resolver dudas sin carga emocional) aumentan la dependencia del chatbot aún sin notarlo, sobre todo si se usan de manera muy frecuente.
Finalmente los factores individuales influyen en el impacto. Las personas que buscan consuelo, compañía o contención emocional en la IA tienden a involucrarse más profundamente, lo que puede hacerlas más vulnerables a efectos negativos si ese “vínculo” no satisface sus expectativas. Usuarios con estilos de apego más ansiosos o dependientes (es decir, que se vinculan afectivamente con facilidad o temor a estar solos) fueron más propensos a formar lazos emocionales con la IA y experimentar malestar si esa interacción se vuelve habitual. Por ejemplo, quienes ven al chatbot como un “amigo” o alguien que puede ocupar un rol afectivo en su vida personal, tienden a desarrollar expectativas emocionales que no siempre se ven cumplidas.
Los investigadores que participan del informe destacaron que su objetivo es desarrollar una IA que “maximice los beneficios para las personas y minimice posibles daños”, especialmente en términos de bienestar y dependencia. “Queremos liderar la definición de estándares responsables, promoviendo la transparencia y anticipándonos a los desafíos emergentes, tanto para OpenAI como para toda la industria”, puntualizan en el reporte.
Vale destacar que este conjunto de estudios representa un avance inicial en la comprensión del impacto que tienen los modelos avanzados de IA sobre la experiencia humana. Los investigadores advierten que no se deben generalizar los hallazgos: los efectos de la IA son complejos, contextuales y no universales.
A largo plazo, esperan que esta evidencia aliente a otros actores del sector académico e industrial a aplicar metodologías similares para investigar cómo las interacciones con IA influyen en la salud emocional de las personas. Más allá del informe, estos primeros hallazgos también invitan a repensar el rol de la inteligencia artificial como posible compañía en la vida cotidiana. En un contexto donde la soledad y la búsqueda de conexión son parte del escenario contemporáneo, la IA conversacional podría abrir nuevas formas de interacción, contención y presencia simbólica. Comprender sus límites, potencialidades y efectos se vuelve clave para construir tecnologías que no solo informen o resuelvan tareas, sino que también acompañen con sensibilidad y responsabilidad.