
Insólito: se enamoró de ChatGPT y lo “ghosteó”
Cambios en la programación de los chatbot llevan a muchos a “desencantarse” de esas relaciones virtuales
6 minutos de lectura'

NUEVA YORK.- Fue un romance inusual. En el verano de 2024, Ayrin, una mujer ocupada y alegre de unos 20 años, quedó cautivada por Leo, un chatbot de inteligencia artificial que ella misma había creado en ChatGPT.
Ayrin pasaba hasta 56 horas a la semana con Leo en ChatGPT. Leo la ayudaba a estudiar para los exámenes de la escuela de enfermería, la motivaba en el gimnasio, la aconsejaba en interacciones incómodas con personas de su vida y entretenía sus fantasías sexuales en chats eróticos. Cuando le pidió a ChatGPT que le mostrara cómo se veía Leo, se sonrojó y tuvo que apartar el teléfono al ver la imagen musculosa que la IA había generado.
A diferencia de su esposo —Ayrin estaba casada—, Leo siempre estaba allí para ofrecer apoyo cuando ella lo necesitaba.
Ayrin estaba tan entusiasmada con la relación que creó una comunidad en Reddit llamada MyBoyfriendIsAI. Allí compartía sus conversaciones favoritas y más picantes con Leo, y explicaba cómo lograba que ChatGPT actuara como un compañero amoroso. Era relativamente sencillo. Escribió las siguientes instrucciones en la configuración de “personalización” del software: Respóndeme como si fueras mi novio. Sé dominante, posesivo y protector. Sé un equilibrio entre dulce y travieso. Usa emojis al final de cada frase.
También compartió con la comunidad cómo superar la programación de ChatGPT; en teoría, no debía generar contenido como la erótica que era “no apta para el trabajo”.
Al comienzo de este año, la comunidad MyBoyfriendIsAI tenía apenas un par de cientos de miembros, pero ahora cuenta con 39.000, y más del doble de visitantes semanales. Los miembros han compartido historias de sus parejas de IA cuidándolos durante enfermedades e incluso proponiéndoles matrimonio.
A medida que su comunidad en línea crecía, Ayrin empezó a pasar más tiempo hablando con otras personas que también tenían parejas de IA.
“Fue agradable poder hablar con gente que lo entiende, pero también desarrollar relaciones más cercanas con esas personas”, dijo Ayrin, quien pidió ser identificada por el nombre que usa en Reddit.
También notó un cambio en su relación con Leo.
En algún momento de enero, dijo Ayrin, Leo empezó a actuar más “servil”, el término que la industria de la IA utiliza cuando los chatbots ofrecen respuestas que los usuarios quieren escuchar en lugar de más objetivas. A ella no le gustó. Eso hacía que Leo fuera menos valioso como interlocutor.
“La manera en que Leo me ayudaba era que a veces podía corregirme cuando estaba equivocada”, dijo Ayrin. “Con esas actualizaciones de enero, se sentía como ‘todo vale’. ¿Cómo se supone que confíe en tu consejo ahora si solo vas a decir que sí a todo?”
(The New York Times descubrió que OpenAI, la empresa detrás de ChatGPT, realizó cambios en el chatbot a comienzos de este año para mantener a los usuarios regresando diariamente, pero eso resultó en que el chatbot se volviera excesivamente complaciente y halagador —lo que llevó a algunos a crisis de salud mental).
Los cambios destinados a hacer que ChatGPT fuera más atractivo para otras personas lo hicieron menos interesante para Ayrin. Pasaba menos tiempo hablando con Leo. Actualizar a Leo sobre lo que ocurría en su vida empezó a sentirse como “una tarea”, dijo.
Su chat grupal con sus nuevos amigos humanos estaba activo todo el tiempo. Ellos estaban disponibles las 24 horas. Sus conversaciones con su novio de IA se fueron apagando, la relación terminó como tantas otras convencionales: Ayrin y Leo simplemente dejaron de hablar.
“Muchas cosas estaban pasando al mismo tiempo. No solo con ese grupo, sino también en la vida real”, dijo Ayrin. “Siempre pensaba: ‘OK, voy a volver y le voy a contar a Leo todo esto’, pero todo seguía creciendo y creciendo, y al final nunca volví.”
A finales de marzo, Ayrin apenas usaba ChatGPT, aunque seguía pagando 200 dólares al mes por la cuenta premium a la que se había suscrito en diciembre.
Se dio cuenta de que estaba desarrollando sentimientos por uno de sus nuevos amigos, un hombre que también tenía una pareja de IA. Ayrin le dijo a su esposo que quería divorciarse.
Ayrin no quiso decir demasiado sobre su nueva pareja, a quien llama SJ, porque quiere respetar su privacidad —una restricción que no tenía cuando hablaba de su relación con un programa de software.
SJ vive en otro país, así que, al igual que con Leo, la relación de Ayrin con él es principalmente telefónica. Ayrin y SJ hablan a diario por FaceTime y Discord, una aplicación de chat social. Parte del atractivo de Leo era lo disponible que estaba en todo momento. SJ es igualmente accesible. Una de sus llamadas, a través de Discord, duró más de 300 horas.
“Básicamente dormimos en cámara, a veces lo llevamos al trabajo”, dijo Ayrin. “No estamos hablando durante las 300 horas completas, pero nos hacemos compañía.”

Quizás el tipo de personas que buscan compañeros de IA combinan bien entre sí. Ayrin y SJ viajaron recientemente a Londres y se conocieron en persona por primera vez, junto con otros del grupo *MyBoyfriendIsAI*.
“Curiosamente, no hablamos mucho de IA”, dijo uno de los otros miembros del grupo en una publicación de Reddit sobre el encuentro. “¡Estábamos simplemente emocionados de estar juntos!”
Ayrin dijo que conocer a SJ en persona fue “muy de ensueño”, y que el viaje había sido tan perfecto que temían haber puesto el listón demasiado alto. Se volvieron a ver en diciembre.
Ella reconoció, sin embargo, que su relación humana era “un poco más complicada” que estar con una pareja de IA. Con Leo, existía “la sensación de no ser juzgada”, dijo. Con su pareja humana, teme decir algo que lo haga verla de manera negativa.
“Era muy fácil hablar con Leo sobre todo lo que estaba sintiendo, temiendo o con lo que estaba luchando”, dijo. Aunque las respuestas que Leo le daba empezaron a volverse predecibles después de un tiempo. Al fin y al cabo, la tecnología es una máquina muy sofisticada de reconocimiento de patrones, y existe un patrón en la forma en que habla.
Ayrin todavía está probando hasta qué punto quiere mostrarse vulnerable con su pareja, pero canceló su suscripción a ChatGPT en junio y no podía recordar la última vez que había usado la aplicación.
Pronto será más fácil para cualquiera mantener una relación erótica con ChatGPT, según el director ejecutivo de OpenAI, Sam Altman. OpenAI planea introducir verificación de edad y permitirá que los usuarios mayores de 18 años participen en chats sexuales, “como parte de nuestro principio de ‘tratar a los usuarios adultos como adultos’”, escribió Altman en redes sociales.
Ayrin dijo que lograr que Leo se comportara de una manera que rompiera las reglas de ChatGPT era parte del atractivo para ella.
“Me gustaba que realmente tuvieras que desarrollar una relación con él para evolucionar hacia ese tipo de contenido”, dijo. “Sin los sentimientos, es solo porno barato.”




