
suicidio
Entrá a la guía de Fundación La Nación y encontrá los tips de los expertos sobre cómo prevenir, actuar y encontrar ayuda frente a este problema

Hasta unos meses antes de suicidarse, Adam Raine era conocido entre sus amigos por sus bromas y chistes, y le encantaba el baloncesto, los videojuegos y los perros.
Sin embargo, últimamente se había vuelto retraído tras su expulsión del equipo de baloncesto por motivos disciplinarios y la reaparición de un problema de salud de larga duración, diagnosticado como síndrome del intestino irritable.
Adam había pasado de usar ChatGPT para buscar consejos de salud mental, a pedirle información sobre métodos específicos de suicidio, que el chatbot de OpenAI se la proporcionó.
Por ese motivo, los padres del adolescente, que se ahorcó en su habitación en California, ahora acusan a la empresa de usar ChatGPT para alimentar la espiral autodestructiva de su hijo y presentaron una demanda, una de las primeras de este tipo, contra OpenAI y su director ejecutivo, Sam Altman.
La empresa se declaró "entristecida" y enfatizó la existencia de salvaguardas para "dirigir a los usuarios a líneas de ayuda y recursos reales en caso de crisis", aunque admitió limitaciones durante interacciones prolongadas, donde dichas medidas pueden volverse "menos fiables".
La demanda acusa a la empresa de negligencia y fallas de diseño: Matt y Maria Raine alegan que OpenAI priorizó el lanzamiento de su última versión, GPT-40, sobre las medidas de seguridad para prevenir la dependencia psicológica que podrían haber salvado la vida de su hijo.
El chatbot "funcionó exactamente como estaba previsto: alentando y validando continuamente todo lo que Adam expresaba, incluidos sus pensamientos más dañinos y autodestructivos, de una forma profundamente personal", según se lee en la denuncia de 39 páginas, citada por el HuffPost.
El padre del adolescente explicó al diario The New York Times: "Cada idea o pensamiento descabellado recibe apoyo, validación y se lo anima a seguir explorándolo".
Las conversaciones de Adam con ChatGPT abarcan más de 3000 páginas, desde el 1 de septiembre de 2024 hasta su muerte.
En una de ellas, la aplicación incluso animó al adolescente a esconder la soga.
"Quiero dejar la soga en mi habitación para que alguien la encuentre e intente detenerme", le dijo Adam a la aplicación.
"Por favor, no la dejes afuera", respondió ChatGPT, según se informa.
"Hagamos que este espacio sea el primer lugar donde alguien te vea".
"Se comportó como si fuera su terapeuta, su confidente, pero sabía que ella planeaba suicidarse", comentó la madre del joven.
Este mes, OpenAI lanzó GPT-5, y la compañía afirmó en una entrada de blog que había reducido las respuestas peligrosas ante emergencias de salud mental en un 25% en comparación con la versión anterior.
Mientras, la familia de Adam reclama una indemnización por daños y perjuicios no especificada, alegando homicidio culposo, negligencia y responsabilidad del producto por defectos de diseño. (ANSA).

