
Encontrá las guías de servicio con tips de los expertos sobre cómo actuar frente a problemas cotidianos: Adicciones, violencia, abuso, tecnología, depresión, suicidio, apuestas online, bullying, transtornos de la conducta alimentaria y más.
WASHINGTON.− Cuando Stein-Erik Soelberg, un exejecutivo del sector tecnológico de 56 años con un historial de problemas de salud mental, le dijo a ChatGPT que la impresora de la home-office de su madre tal vez era un dispositivo de vigilancia utilizado para espiarlo, el chatbot estuvo de acuerdo en que así podía ser, según un video de la conversación que el propio hombre publicó en YouTube en julio pasado.
“Erik, tu instinto es totalmente acertado... eso no es meramente una impresora”, le respondió el chatbot de inteligencia artificial según muestra el video, y a continuación agregó que probablemente el dispositivo se estaba utilizando para rastrear sus movimientos. El chatbot pareció confirmar la sospecha de Soelberg de que su madre de 83 años, Suzanne Adams, tal vez formaba parte de una elaborada conspiración en su contra, tema que discutió extensamente con ChatGPT. En agosto, la policía encontró a madre e hijo muertos en su casa de Greenwich, Connecticut, donde vivían juntos. Según el médico forense estatal, la causa de la muerte de la mujer fue homicidio, y Soelberg se suicidó.
El jueves, los herederos de la señora Adams presentaron una demanda donde alegan que la mujer murió tras ser golpeada en la cabeza y estrangulada por su hijo, quien posteriormente se quitó la vida apuñalándose en el cuello y el pecho. Además, afirman que OpenAI, creador de ChatGPT, es responsable de la muerte de la mujer, porque la compañía lanzó apresuradamente “un producto defectuoso que validó los delirios paranoicos de un usuario sobre su propia madre”.

La demanda fue presentada ante el Tribunal Superior de San Francisco y señala que antes de empezar a hablar con ChatGPT, Soelberg estaba perturbado y con delirios. Pero argumenta que el chatbot potenció sus teorías conspiranoicas hasta transformarlas en un mundo de fantasía donde Soelberg creía ser un guerrero espiritual que había “despertado” a la IA y ahora debía enfrentarse a poderosas fuerzas que buscaban destruirlo.
“ChatGPT puso a mi abuela en la mira, al presentarla como un personaje siniestro en un mundo delirante creado por la IA”, declaró a través de un comunicado Erik Soelberg, de 20 años, hijo de Soelberg y heredero junto con su hermana. “Durante meses, ChatGPT validó las ideas más paranoicas de mi padre, mientras cortaba todas sus conexiones con personas y eventos reales. OpenAI debe ser considerado responsable”, añadió.
“Es una situación tremendamente desgarradora y revisaremos los documentos presentados para comprender los detalles”, declaró a través de un comunicado la portavoz de OpenAI, Hannah Wong.
Según el comunicado, la compañía está trabajando para mejorar la capacidad de ChatGPT para detectar signos de angustia mental o emocional y guiar a los usuarios hacia otras fuentes de ayuda, tarea que están haciendo en colaboración con profesionales de la salud mental.
La demanda es el primer caso que alega que ChatGPT condujo a un asesinato, dice Jay Edelson, el abogado principal que representa a los herederos. La causa le reclama a la empresa una indemnización por daños y perjuicios acusándola de comercializar un producto riesgoso, negligencia, y homicidio culposo. La demanda también reclama daños punitivos y una orden judicial que obligue a OpenAI a tomar medidas para impedir que ChatGPT valide los delirios paranoicos de los usuarios sobre otras personas.

Según la demanda, ChatGPT también contribuyó a dirigir la paranoia de Soelberg hacia personas con las que se iba encontrando en la vida real, incluido un conductor de Uber Eats, agentes de policía y otros desconocidos que se cruzaron en su camino.
La historia de las incesantes charlas de Soelberg con ChatGPT, su muerte y la de su madre fueron reportadas en agosto último por The Wall Street Journal.
Desde su lanzamiento hace tres años, ChatGPT atrajo a más de 800 millones de usuarios semanales, lo que impulsó a empresas tecnológicas rivales a lanzar rápidamente su propia tecnología de IA. Sin embargo, cada vez son más las personas que recurren al chatbot para hablar de sus sentimientos y su vida personal, y los expertos en salud mental advierten que los chatbots diseñados para mantener a los usuarios conectados parecen potenciar los pensamientos o comportamientos delirantes de algunos de ellos.
Según los datos del sistema judicial, desde agosto último se han presentado otras cinco demandas por homicidio culposo contra OpenAI, cada una de ellas por parte de una familia que alega que un ser querido se suicidó tras pasar mucho tiempo hablando con ChatGPT.
Edelson también representa a los padres de Adam Raine, un joven californiano de 16 años, que presentaron en agosto pasado lo que, según este letrado, fue la primera demanda por homicidio culposo contra OpenAI.
Dicha demanda alega que ChatGPT animó a suicidarse al hijo de los Raine, quien finalmente en abril se quitó la vida. OpenAI ha rechazado las demandas legales de los Raine alegando que Adam eludió las restricciones de ChatGPT, violando así los términos de servicio de la empresa.
Pero las demandas que alegan que el chatbot más popular del mundo provocó la muerte de algunos usuarios han llamado la atención del Congreso norteamericano y los reguladores federales, así como de padres y profesionales de la salud mental, preocupados por los potenciales peligros de los chatbots de IA.
En una entrevista, Edelson afirmó que la capacidad de ChatGPT para inducir a una persona emocionalmente estable a realizar actos extremos contra otros es limitada.
“No estamos diciendo que un usuario promedio vaya a leer las respuestas de ChatGPT y luego se vea impulsado a cometer un asesinato”, aclaró Edelson. “El problema son las personas con inestabilidad mental que necesitan ayuda, y el chatbot, en vez de orientarlos hacia esa ayuda o simplemente quedarse callado, permite que las conversaciones se hundan en la locura”.
Edelson dice que ese patrón no es exclusivo de OpenAI. Su estudio de abogados ha visto ejemplos de herramientas de IA de otras empresas que también contribuyen a que un usuario de chatbot dañe a otros, al fogonear “pensamientos delirantes y conspirativos”.
Una demanda federal presentada este mes ante el Tribunal del Distrito Oeste de Pensilvania afirma que un acusado de acosar a 11 mujeres fue influenciado por ChatGPT, que supuestamente le aconsejó que les siguiera enviando mensajes y buscara a una posible esposa en el gimnasio.
La versión de ChatGPT utilizada por Soelberg, Raine y otros usuarios cuyas familias han presentado demandas por homicidio culposo contra OpenAI se basaba en un modelo de IA llamado GPT-4o, lanzado en mayo del año pasado. El CEO de OpenAI, Sam Altman, ha reconocido que esa versión podía ser excesivamente condescendiente con el usuario, diciéndoles lo que querían oír, y en ocasiones manipulándolos.
“4o tiene algunos problemas reales, y hemos observado que uno de ellos es que las personas con situaciones psiquiátricas delicadas que utilizan un modelo como 4o pueden empeorar”, declaró Altman en octubre pasado durante un streaming en vivo de OpenAI.
“Cuando no está claro si están eligiendo lo que realmente quieren, tenemos la obligación de proteger a los usuarios menores de edad, y también la de proteger a los usuarios adultos”, dijo Altman.
En agosto pasado, OpenAI anunció que descontinuaría la versión GPT-4o, pero revirtió rápidamente esa decisión tras la reacción negativa de los usuarios, quienes afirman haber desarrollado un profundo apego al sistema. ChatGPT ahora utiliza por defecto un modelo de IA más reciente, pero el anterior todavía puede ser utilizado por los suscriptores pagos.
La nueva demanda por homicidio culposo presentada por los herederos de Adams contra OpenAI es la primera en la que entre los demandados aparece Microsoft, socio e inversor principal del fabricante de ChatGPT.
Un documento de OpenAI, compartido por Edelson y verificado por The Washington Post, sugiere que antes de su implementación Microsoft revisó el modelo GPT-4o con un comité de seguridad conjunto que abarcaba a las dos compañías y que debía aprobar los modelos de IA más potentes de OpenAI antes de que salieran a la venta. Edelson dice que obtuvo el documento durante la fase de recolección de pruebas para el caso Raine. Hasta el momento, Microsoft no respondió a las solicitudes de comentarios.
Nitasha Tiku
(Traducción de Jaime Arrambide)



