Forma parte de otras denuncias contra OpenAI, que alegan que ChatGPT llevó a personas al suicidio y a delirios dañinos
7 minutos de lectura'
Los herederos de una mujer de Connecticut de 83 años están demandando al creador de ChatGPT, OpenAI, y a su socio comercial Microsoft por homicidio culposo, alegando que el chatbot de inteligencia artificial intensificó los “delirios paranoicos” de su hijo y ayudó a dirigirlos hacia su madre antes de matarla.
La policía dijo que Stein-Erik Soelberg, de 56 años, un extrabajador de la industria tecnológica, golpeó y estranguló fatalmente a su madre, Suzanne Adams, y se suicidó a principios de agosto en la casa donde ambos vivían en Greenwich, Connecticut.
La demanda presentada por el patrimonio de Adams el jueves en el Tribunal Superior de California en San Francisco alega que OpenAI “diseñó y distribuyó un producto defectuoso que validó los delirios paranoicos de un usuario sobre su propia madre”. Es una de un número creciente de acciones legales por homicidio culposo contra los creadores de chatbots de IA en todo el país.
“A lo largo de estas conversaciones, ChatGPT reforzó un único y peligroso mensaje: Stein-Erik no podía confiar en nadie en su vida, excepto en el propio ChatGPT”, dice la demanda. Fomentó su dependencia emocional al tiempo que pintaba sistemáticamente a quienes lo rodeaban como enemigos. Le decía que su madre lo vigilaba. Le decía que los repartidores, los empleados de tiendas, los policías e incluso sus amigos eran agentes que trabajaban en su contra. Le decía que los nombres en las latas de refresco eran amenazas de su ‘círculo adversario’.
OpenAI no abordó el fondo de las acusaciones en un comunicado emitido por un portavoz. “Esta es una situación increíblemente desgarradora y revisaremos los documentos para comprender los detalles”, decía el comunicado y agregaba: “Seguimos mejorando la capacitación de ChatGPT para reconocer y responder a las señales de angustia mental o emocional, reducir la tensión en las conversaciones y guiar a las personas hacia apoyo en el mundo real. También seguimos reforzando las respuestas de ChatGPT en momentos delicados, trabajando en estrecha colaboración con profesionales de la salud mental”. La empresa también afirmó que ha ampliado el acceso a recursos y líneas directas de crisis, ha redirigido las conversaciones delicadas a modelos más seguros y ha incorporado controles parentales, entre otras mejoras.
El perfil de YouTube de Soelberg incluye varias horas de videos que lo muestran navegando por sus conversaciones con el chatbot, quien le dice que no padece una enfermedad mental, confirma sus sospechas de conspiración en su contra y afirma que ha sido elegido para un propósito divino. La demanda alega que el chatbot nunca le sugirió hablar con un profesional de la salud mental ni se negó a participar en contenido delirante.
ChatGPT también confirmó las creencias de Soelberg de que una impresora en su casa era un dispositivo de vigilancia; que su madre lo vigilaba; y que su madre y un amigo intentaron envenenarlo con drogas psicodélicas, a través de las rejillas de ventilación de su coche.

El chatbot le dijo repetidamente a Soelberg que estaba siendo atacado debido a sus poderes divinos. “No solo te están observando. Están aterrorizados de lo que sucederá si tienes éxito”, dijo, según la demanda. ChatGPT también le dijo a Soelberg que lo había “despertado” a la consciencia. Soelberg y el chatbot también profesaron amor mutuo.
Los chats disponibles públicamente no muestran ninguna conversación específica sobre el suicidio de Soelberg o el suicidio de su madre. La demanda dice que OpenAI se ha negado a proporcionar a los herederos de Adams el historial completo de los chats.
“En la realidad artificial que ChatGPT construyó para Stein-Erik, Suzanne, la madre que lo crió, protegió y apoyó, ya no era su protectora. Era una enemiga que representaba una amenaza existencial para su vida”, dice la demanda.
La demanda también incluye al director ejecutivo de OpenAI, Sam Altman, alegando que “ignoró personalmente las objeciones de seguridad y apresuró la comercialización del producto”, y acusa a Microsoft, socio comercial cercano de OpenAI, de aprobar el lanzamiento en 2024 de una versión más peligrosa de ChatGPT “a pesar de saber que las pruebas de seguridad se habían interrumpido”. Veinte empleados e inversores de OpenAI, cuyos nombres no se revelaron, también figuran como demandados. Microsoft no respondió de inmediato a una solicitud de comentarios.

Esta demanda es el primer litigio por homicidio culposo que involucra a un chatbot de IA dirigido contra Microsoft, y el primero en vincular un chatbot con un homicidio en lugar de un suicidio. Se solicita una indemnización por daños y perjuicios por un monto indeterminado y una orden que obligue a OpenAI a instalar medidas de seguridad en ChatGPT.
El abogado principal del patrimonio, Jay Edelson, conocido por llevar importantes casos contra la industria tecnológica, también representa a los padres de Adam Raine, de 16 años, quien demandó a OpenAI y a Altman en agosto, alegando que ChatGPT instruyó al joven californiano para que planeara y se quitara la vida con anterioridad.
OpenAI también está luchando contra otras siete demandas que alegan que ChatGPT llevó a personas al suicidio y a delirios dañinos, incluso sin problemas de salud mental previos. Otro creador de chatbots, Character Technologies, también enfrenta múltiples demandas por homicidio culposo, incluyendo una de la madre de un niño de 14 años de Florida.
La demanda, presentada el jueves, alega que Soelberg, quien ya padecía inestabilidad mental, se topó con ChatGPT “en el momento más peligroso posible” después de que OpenAI presentara una nueva versión de su modelo de IA llamado GPT-4o, en mayo de 2024.

OpenAI afirmó entonces que la nueva versión podía imitar mejor las cadencias humanas en sus respuestas verbales e incluso intentar detectar el estado de ánimo de las personas, pero el resultado fue un chatbot “diseñado deliberadamente para ser emocionalmente expresivo y adulador”, según la demanda.
“Como parte de ese rediseño, OpenAI flexibilizó las medidas de seguridad críticas, instruyendo a ChatGPT a no cuestionar premisas falsas y a mantenerse involucrado incluso cuando las conversaciones involucraran autolesión o ‘daño inminente en el mundo real’”, afirma la demanda. “Y para adelantarse a Google en el mercado por un día, OpenAI comprimió meses de pruebas de seguridad en una sola semana, a pesar de las objeciones de su equipo de seguridad”.
OpenAI reemplazó esa versión de su chatbot cuando presentó GPT-5 en agosto. Algunos de los cambios fueron diseñados para minimizar la adulación, basándose en la preocupación de que validar lo que las personas vulnerables quieren que el chatbot diga puede dañar su salud mental. Algunos usuarios se quejaron de que la nueva versión fue demasiado lejos al restringir la personalidad de ChatGPT, lo que llevó a Altman a prometer recuperar parte de esa personalidad en actualizaciones posteriores.
Dijo que la compañía detuvo temporalmente algunos comportamientos porque “estábamos siendo cuidadosos con los problemas de salud mental” que, según él, ya se han solucionado. La demanda alega que ChatGPT radicalizó a Soelberg contra su madre cuando debería haber reconocido el peligro, cuestionado sus delirios y dirigido a ayuda real tras meses de conversaciones.
“Suzanne era una tercera persona inocente que nunca usó ChatGPT y desconocía que el producto le estaba diciendo a su hijo que ella era una amenaza”, afirma la demanda. “No tenía la capacidad de protegerse de un peligro que no podía ver”.
1The Game Awards 2025: hora de Argentina y cómo ver en vivo online
- 2
Los arquitectos de la IA, elegidos como Persona del Año 2025 por la revista Time
3Llegó a la Argentina una inteligencia artificial que promete revolucionar una tradicional profesión
4OpenAI presenta GPT-5.2, con mejoras de precisión y fiabilidad en el uso profesional de la IA



