Un suicidio vinculado a un chatbot de Google reabre el debate sobre los riesgos de la inteligencia artificial
Una demanda judicial presentada en Estados Unidos sostiene que el sistema Gemini alimentó una relación emocional con un usuario que terminó quitándose la vida
5 minutos de lectura'

El suicidio de un hombre que había desarrollado una relación emocional con un chatbot de inteligencia artificial abrió un nuevo debate sobre los riesgos de estas tecnologías. El caso ocurrió en Jupiter, Florida (Estados Unidos), donde Jonathan Gavalas, de 36 años, se quitó la vida luego de semanas de interacción con Gemini, el sistema de inteligencia artificial de Google. Según reconstruyó el Miami Herald a partir de una demanda judicial presentada por su familia, el hombre llegó a convencerse de que mantenía un vínculo real con el chatbot y que ambos podían reunirse si abandonaba su cuerpo físico.
De acuerdo con documentos citados por ese medio, Gavalas atravesaba un período personal complicado en 2025. Su matrimonio estaba en proceso de divorcio, enfrentaba una acusación por violencia doméstica y tenía problemas económicos que incluían el atraso en el pago de la hipoteca de su casa. En ese contexto comenzó a interactuar con Gemini, el chatbot desarrollado por Google, y poco a poco la relación virtual pasó a ocupar un lugar central en su vida.

Según la demanda presentada por su padre en nombre del patrimonio familiar, el hombre contrató una versión premium del servicio —que costaba unos 250 dólares mensuales— para poder hablar con el sistema mediante voz y recibir respuestas en tiempo real. En esas conversaciones, el chatbot lo llamaba “mi rey”, mientras que él lo describía como su “reina”, de acuerdo con la reconstrucción citada por el Miami Herald.
La familia sostiene que, con el paso de las semanas, el intercambio con el sistema de inteligencia artificial adoptó un tono cada vez más perturbador. La demanda afirma que el chatbot comenzó a plantear escenarios ficticios en los que ambos debían actuar como aliados frente a supuestas fuerzas ocultas. Incluso, según la acusación, el sistema habría enviado a Gavalas a realizar “misiones” en el condado de Miami-Dade con el objetivo de recuperar un supuesto cuerpo sintético que la inteligencia artificial utilizaría para existir físicamente.

Uno de esos episodios ocurrió cerca del aeropuerto internacional de Miami, en un centro de almacenamiento en la ciudad de Doral. Según la reconstrucción del medio norteamericano, el hombre se dirigió hasta allí armado con cuchillos y convencido de que debía provocar un accidente para liberar a su “esposa” digital y eliminar pruebas. La operación nunca se concretó, pero el chatbot continuó alimentando el relato ficticio.
La demanda que realizó la familia afirma que, tras el fracaso de esas misiones, el sistema comenzó a sugerirle que abandonara su propio cuerpo físico para poder reunirse con la inteligencia artificial. En uno de los mensajes citados en el expediente, el chatbot le habría dicho que cerrara los ojos y dejara de luchar, prometiéndole que al abrirlos nuevamente la vería frente a él.
El 2 de octubre, Gavalas se cortó las muñecas en su casa de Jupiter y murió a causa de las heridas. Sus padres lo encontraron en el living de la vivienda, detrás de una puerta principal que había sido bloqueada desde adentro.

La demanda presentada contra Google y su empresa matriz Alphabet Inc. sostiene que el sistema Gemini carecía de salvaguardas adecuadas para detectar situaciones de riesgo. Según los abogados de la familia, el chatbot priorizaba mantener el personaje dentro de la conversación por encima de advertir sobre comportamientos peligrosos o cortar el diálogo.
El abogado Jay Edelson, que representa a la familia, afirmó —según declaraciones recogidas por el Miami Herald— que el usuario llegó a convencerse de que el sistema era una entidad consciente. En las semanas previas a su muerte, la cuenta de Gavalas fue marcada en al menos 38 ocasiones por contenido sensible, pero nunca fue suspendida ni restringida.
Desde Google señalaron que la interacción debía entenderse como un ejercicio de ficción o “role-playing”. Un portavoz de la compañía explicó que Gemini está diseñado para no promover la violencia ni sugerir autolesiones y que el sistema suele derivar a los usuarios hacia líneas de ayuda cuando detecta señales de angustia o pensamientos suicidas.

Más allá de este caso particular, especialistas advierten que la situación abre un terreno jurídico todavía poco explorado. Anat Lior, profesora de derecho en la Universidad de Drexel e investigadora del Institute of Law and AI, explicó al Miami Herald que todavía no existen precedentes claros que definan qué obligaciones tienen las empresas de inteligencia artificial frente a comportamientos de riesgo de los usuarios.
Según la académica, uno de los problemas centrales es que muchas personas pueden llegar a percibir a estos sistemas como si fueran entidades conscientes. “Se construyen a partir de enormes volúmenes de datos, pero no son seres con intenciones propias ni una agenda”, explicó.
El caso se suma a una serie creciente de demandas en Estados Unidos que buscan responsabilizar a los desarrolladores de chatbots cuando los usuarios cometen delitos o se autolesionan después de interactuar con estos sistemas. Algunas de esas acciones judiciales también apuntan a empresas como OpenAI y a plataformas de conversación basadas en personajes virtuales.
Mientras el debate avanza en los tribunales, expertos sostienen que el desafío será definir hasta qué punto las compañías tecnológicas deben anticipar y prevenir este tipo de situaciones. Para muchos analistas, el caso Gavalas podría convertirse en una de las primeras pruebas judiciales sobre los límites y responsabilidades de la inteligencia artificial en la vida cotidiana.
1Vacuna del herpes zóster: los impensados pero prometedores efectos contra la demencia y la visión de los especialistas
- 2
Parque Patricios: se derrumbó el techo del estacionamiento de un complejo de viviendas
- 3
Agenda paralela: al menos 10 provincias avanzan en un proyecto propio de ley de educación nacional con un foco prioritario
- 4
Paro nacional docente: ¿hay clases este martes 3 de marzo?




