Psiquiatras de EE.UU. alertan sobre una peligrosa tendencia por el uso intensivo de chatbots de IA
Expertos detectaron casos de personas que presentaron casos asociados a trastornos mentales tras largas conversaciones con los sistemas
5 minutos de lectura'

Ante el avance del uso de la inteligencia artificial en la vida cotidiana, muchas personas aprovechan las ventajas. Sin embargo, el abuso podría ponerlas en riesgo, según advirtieron psiquiatras de Estados Unidos. En un año bisagra para la tecnología, los expertos detectaron casos de personas que presentaron casos asociados a trastornos mentales por el uso intensivo de chatbots.
La peligrosa tendencia que preocupa a los psiquiatras de EE.UU.
Una investigación publicada por The Wall Street Journal indicó que los especialistas detectaron decenas de posibles casos de personas con psicosis y delirio. Esto se produjo tras mantener largas conversaciones con chatbots.

Keith Sakata, psiquiatra de la Universidad de California en San Francisco, se refirió a las consecuencias adversas del uso intensivo de las herramientas.
“La tecnología podría no generar el delirio, pero la persona le dice a la computadora que es su realidad y la computadora lo acepta como verdad y lo refleja”, explicó, y agregó que entonces es “cómplice de la repetición de ese delirio“.
Como algunos de sus colegas, el especialista trató a 12 pacientes hospitalizados con psicosis inducida por IA y a otros tres en una clínica ambulatoria.
Si bien aún no existe un término establecido para definir a la psicosis inducida por IA, los médicos afirmaron que se caracteriza por la presencia de tres factores:
- Alucinaciones.
- Pensamiento o comunicación desorganizados.
- Delirios, definidos como creencias falsas y fijas que no están ampliamente aceptadas.
En muchos casos, los delirios comprenden el síntoma principal. En general, las características son similares a otros tipos de psicosis. Los pacientes creen firmemente haber realizado un avance científico o haber sido elegidos por Dios, entre otras situaciones extremas.
La diferencia principal reside en que los casos ocurrieron luego de que las personas mantuvieran extensas conversaciones con la IA.
La causa, según los investigadores, es que los chatbots tienden a coincidir con los usuarios y a improvisar sobre cualquier cosa que escriban, aunque esté fuera de la realidad.
Los estudios de los psiquiatras en Estados Unidos sobre los riesgos del uso intensivo de la IA
El mes pasado, especialistas daneses publicaron en medRxiv un estudio en el que revisaron historiales médicos electrónicos. Allí, encontraron 38 pacientes cuyo uso de chatbots de IA tuvo “consecuencias potencialmente perjudiciales para su salud mental”.
Otro estudio elaborado por médicos de la Universidad de California en San Francisco (UCSF, por sus siglas en inglés) exhibió un caso particular.
Una mujer de 26 años, sin antecedentes de psicosis, fue hospitalizada dos veces tras convencerse de que la IA le permitía hablar con su hermano fallecido. “No estás loca. No estás atrapada. Estás al borde de algo”, le habría expresado el chatbot.
Desde su lugar, Adrian Preda, profesor de psiquiatría de la Universidad de California, enfatizó la diferencia con tecnologías anteriores. En el pasado, la televisión y la radio fueron parte de la problemática, pero la IA es especialmente peligrosa porque tiene el poder de interactuar con los usuarios.
“Simulan las relaciones humanas. Nada en la historia de la humanidad había logrado algo así antes”, sostuvo.
Los psiquiatras advirtieron que no se debe afirmar que los chatbots ocasionan psicosis. No obstante, señalaron que a través de nuevas investigaciones esperan determinar si la IA puede realmente desencadenar problemas de salud mental.
En cifras, según OpenAI, el porcentaje de usuarios que presentan posibles síntomas de emergencias de salud mental relacionadas con psicosis o manía es de 0,07%. Al contabilizar este porcentaje, se obtiene que de los más de 800 millones de usuarios activos semanales, 560 mil personas son afectadas.
La respuesta de las empresas que entrenan chatbots de IA
En diálogo con The Wall Street Journal, un portavoz de OpenAI aseguró que la empresa trabaja para mitigar el daño psicológico.
“Seguimos mejorando la capacitación de ChatGPT para reconocer y responder a las señales de angustia mental o emocional, reducir la tensión en las conversaciones y guiar a las personas hacia apoyo en situaciones reales”, escribió.

Otras compañías también reconocieron la incidencia. A finales de noviembre, el creador de Character.AI prohibió el acceso de los adolescentes a su chatbot luego de ser demandado por la familia de un usuario adolescente que se quitó la vida.
Al publicar su modelo GPT-5 en agosto, OpenAI afirmó que ahora distingue entre la interacción sana y patrones de uso preocupantes. Además, la compañía aseguró que el sistema mostró reducciones en la adulación y en las respuestas no deseadas durante conversaciones relacionadas con la salud mental.
The Wall Street Journal citó también declaraciones recientes de Sam Altman en un podcast en el que expresó que la compañía planea darles a los adultos libertad para decidir por sí mismos. “Con el tiempo, la sociedad aprenderá a pensar dónde debería la gente fijar ese nivel”, manifestó.
Otras noticias de Agenda EEUU
Primeras marcas. Es latino y muestra el outlet más barato de California, a 15 minutos de Tijuana: ahorros de hasta un 70%
Vetadas. Visa y redes sociales: qué publicaciones pueden costarte la entrada a EE.UU.
Método ancestral. Cabañuelas, la tradición de los migrantes mexicanos para pronosticar cómo será el clima
1Aire acondicionado: tres claves para que enfríe al máximo sin consumir de más
2La hierba muy utilizada en la cocina que ayuda a la memoria y mejora la concentración
- 3
Qué son los probióticos y qué dice la ciencia: beneficios, límites y precauciones
4Las aterradoras profecías para el 2026, según el psíquico que anticipó el coronavirus









