Disonancia cognitiva. Chatbots que fingen ser humanos y sus riesgos
Que las herramientas de IA generativa usen el “yo” puede generar confusión e incluso ser peligroso para sus usuarios
4 minutos de lectura'

NUEVA YORK (The New York Times).– Muchos expertos afirman que el hecho de que los chatbots actúen como humanos genera disonancia cognitiva en los usuarios sobre con qué están interactuando y cuánto deben confiar en esas herramientas. Convertir estos motores de búsqueda modernos en entidades personificadas que usan “yo”, en lugar de herramientas con objetivos específicos, podría hacer que sean más confusos y peligrosos para los usuarios.
Para evitarlo, los críticos sostiene que estos sistemas podrían proporcionar la información solicitada sin tanta charla. O podrían diseñarse para tareas específicas, como programación o información de salud, en lugar de ser interfaces de propósito general capaces de ayudar con cualquier cosa y, además, hablar sobre sentimientos.
Yoshua Bengio, un pionero del aprendizaje automático, dijo que la imitación de los humanos por parte de los sistemas de IA generativa seguiría mejorando, y eso podría llevar a las personas a preguntarse si la herramienta con la que están interactuando es consciente. Este año, Bengio recibió varios mensajes inquietantes de usuarios de ChatGPT que estaban convencidos de que su versión del chatbot era consciente. Hablé con expertos y empleados de OpenAI y descubrí que la empresa había hecho que el chatbot fuera excesivamente cálido y halagador, lo que tenía efectos perturbadores en personas susceptibles a pensamientos delirantes.
Tendrá “consecuencias negativas para la sociedad” que más personas se convenzan de que la IA es consciente, señaló Bengio. La gente se encariñará. Dependerá demasiado de los sistemas.
Ben Shneiderman, profesor emérito de Informática en la Universidad de Maryland, dijo que el deseo de crear máquinas que parezcan humanas es una “idea zombi” que no muere. Margaret Mitchell, investigadora en IA que trabajó en Google, está de acuerdo. Mitchell ahora es la directora científica de ética de Hugging Face, una plataforma de modelos de aprendizaje automáticos. “La inteligencia artificial tiene más posibilidades de ser beneficiosa cuando te concentras en tareas específicas, en lugar de intentar crear una máquina para todo”, señaló.
Desde el punto de vista de estos críticos, la IA no debería intentar ser capaz de hacer todo lo que hace un humano y más. En cambio, debería diferenciarse por habilidad y hacer bien una sola cosa. Algunas empresas lo están haciendo de esta manera, aseguró Shneiderman.
Efecto Eliza
Que los chatbots con voz humana pueden ser encantadores y confusos es algo que se sabe desde hace más de 50 años. En la década de 1960, un profesor del Instituto Tecnológico de Massachusetts, Joseph Weizenbaum, creó un programa de computadora sencillo llamado Eliza. Este respondía a las indicaciones repitiendo al usuario al estilo de un psicoterapeuta, diciendo “Ya veo” y versiones de “Cuéntame más”.
Eliza cautivó a algunos de los estudiantes universitarios que la probaron. En un libro de 1976, Weizenbaum advirtió que “exposiciones muy breves a un programa de computadora relativamente simple podrían inducir poderosos pensamientos delirantes en personas completamente normales”.
Sherry Turkle, psicóloga y profesora del MIT, acuñó el término “efecto Eliza” para describir cómo las personas se convencen de que una tecnología que parece humana es más inteligente, perspicaz y compleja de lo que realmente es. Los chatbots mucho más sofisticados y cercanos de hoy en día son “el efecto Eliza potenciado,” dijo Turkle. El problema no es que usen “yo”, dijo, sino que están diseñados para mostrar empatía, lo que hace que algunas personas se involucren emocionalmente de manera profunda con una máquina.
Sin embargo, claramente nos sentimos atraídos por lo que Turkle llama una experiencia “potencialmente tóxica”, a juzgar por los cientos de millones de usuarios y los miles de millones de dólares en inversión que han atraído los chatbots actuales. Hacer que sean partes iguales de asistente y amigo puede ser tóxico para algunas personas pero, hasta ahora, parece ser una estrategia de negocios exitosa.
Las empresas de IA podrían hacer más para recordar a las personas que parecen demasiado apegadas que los chatbots no son humanos, sino un algoritmo. Eso es lo que Askell, de Anthropic, dijo que quiere que haga Claude. Pero, ¿las empresas romperán la ilusión si eso perjudica sus ganancias? Shneiderman tiene esperanza, con base en su experiencia en la década de 1970. En ese entonces, trabajó como consultor de un banco que recién estaba desarrollando cajeros automáticos.
Los clientes estaban recelosos de sacar dinero de las máquinas, así que algunos bancos las hicieron parecer humanas. La más famosa fue Tillie, la cajera eterna, cuyo retrato rubio se mostraba de manera prominente en muchos cajeros automáticos. Tillie no duró mucho. “No sobreviven”, dijo Shneiderman. La gente no necesitaba que su cajero automático pretendiera ser humano, dijo, y tampoco lo necesita de los chatbots.





