
Encontrá las guías de servicio con tips de los expertos sobre cómo actuar frente a problemas cotidianos: Adicciones, violencia, abuso, tecnología, depresión, suicidio, apuestas online, bullying, transtornos de la conducta alimentaria y más.


La charla que Humberto Cruz-Esparra brindó en el Congreso de Psicología de la Universidad de Buenos Aires (UBA) fue una de las más concurridas de todo el evento de tres días. No es casualidad: el mensaje que vino a compartir es disruptivo para el público local y, al mismo tiempo, llamativamente esperanzador. “Hoy no le vengo a hablar a estudiantes ni a facultativos; hoy le vengo a hablar a soñadores. ¿Dónde están los soñadores?”, preguntó el doctor en psicología portorriqueño, levantando su propia mano. “Ah, hay unos cuantos, chévere. Los otros, pues, vayan a terapia; funciona”, comenzó, haciendo reír a la audiencia del Aula Mayor de la Facultad de Psicología de la UBA, unos 300 estudiantes, docentes y profesionales de la salud.
Cruz-Esparra es doctor en psicología, especialista en medicina conductual y seguridad psicológica en salud (universidades de Stanford y de Carolina del Sur). Es director del Programa Cero Suicidio de Puerto Rico y pionero en la utilización de la inteligencia artificial (IA) para la prevención del suicidio en la isla, donde encabeza proyectos financiados por los National Institutes of Health (NIH) de los Estados Unidos.
Considera la IA como un arma de doble filo, cuyo uso puede ser excelente si está bien reglamentado y dirigido, y peligroso si no lo está. Pero, sobre todo, destaca la importancia de no huirle a la tecnología: “La IA no es el futuro, es el presente. No reemplaza al profesional de la salud, así como el electrocardiograma no reemplaza al cardiólogo, pero sí nos puede ayudar mucho a salvar vidas”.

En una entrevista con LA NACION, habló sobre el ya instalado aumento progresivo de los suicidios que se observa en la Argentina y gran parte del mundo, sobre todo entre adolescentes y jóvenes. Es en medio de este panorama pesimista que él considera a la IA como una herramienta que siembra ilusión: “La IA puede ayudarnos a salvar vidas. Puede hacernos ver cosas de nuestros pacientes que nosotros no podríamos haber detectado por nuestra cuenta”, sostuvo durante la conversación, en la que también destacó los desafíos que la Argentina enfrenta en salud mental, cuestionando la ley de salud mental.
−Da la impresión de que, mientras que a muchos profesionales de la salud les produce cierto temor la IA, a usted los avances tecnológicos en esta materia le dan esperanza. ¿Es así?
−Mucha, me da mucha esperanza. Es muy común escuchar hablar de la inteligencia artificial desde el miedo, ¿no?, desde la desconfianza o la incertidumbre. Pero es bien importante también verla como un motor de esperanza, no una esperanza ingenua, sino una esperanza informada, científica y profundamente humana.
−¿De dónde surge esta esperanza?
−Del hecho de que la inteligencia artificial nos permite ver lo invisible, ilumina zonas que antes estaban oscuras, porque hay cosas en mis pacientes que yo nunca podría detectar con mis ojos humanos. En mi hospital, IA nos ayuda, por ejemplo, a identificar personas en riesgo de suicidio, personas que nunca alzarían la mano para pedir ayuda. Siempre va a haber un grupo de gente en riesgo que no va a hablar del tema. La aplicación de IA nos permite anticipar las crisis, entender los patrones y actuar a tiempo. Y cuando uno puede intervenir antes del dolor, eso se convierte en una esperanza, porque lo que antes se escapaba entre las grietas ahora puede detectarse.
Mientras que yo en sesión puedo ver cinco o 10 combinaciones de factores de riesgo en mis pacientes, la IA puede analizar simultáneamente 500, por ejemplo, síntomas, lenguaje emocional, cambios conductuales, patrones de conducta, variaciones en el sueño, consumo. Y así puede encontrar estas combinaciones que antes imaginábamos.
−¿Cuál sería un caso concreto de aplicación de IA para la prevención del suicidio?
−En mi hospital usamos la IA para la identificación temprana de riesgo suicida. Nosotros vimos en Puerto Rico que la persona que se suicida, el año antes de hacerlo, visitó al menos una vez una unidad de urgencias o un centro médico primario. Esto tiene que ver con el hecho de que la persona somatiza. Las emociones se convierten en síntomas físicos. Entonces, pensamos: ¿qué podemos hacer, en esa instancia médica, para detectar a estas personas que están en una situación vulnerable?
Hicimos estudios con inteligencia artificial para detectar qué personas que van a salir de una sala de emergencias están más vulnerables en términos de salud mental. A través de algoritmos que analizan simultáneamente muchas variables de nuestros pacientes, la inteligencia artificial nos dijo que había tres condiciones de salud que, en los puertorriqueños del centro de la isla, se asociaban a mayor riesgo de suicidio, incluso en personas que no necesariamente tenían un historial de salud mental. Estas enfermedades son la hidrocefalia, los neoplasmas cerebrales y las enfermedades o inflamaciones a nivel corneal en el ojo, que pueden causar la pérdida de la visión. Básicamente, la IA nos dijo: “Miren, tienen todos estos pacientes que llegan a su sala de emergencia, pero estas personas tienen mayor riesgo de quitarse la vida”.
Así, lo que antes era una intuición ahora se complementa con evidencia. Esta evidencia nos obligó a identificar qué profesionales de la salud son los que atienden a estos tipos de pacientes y darles a ellos un entrenamiento sobre cómo tener una conversación con el paciente para que, en caso de detectar un riesgo, sea referido a una persona que lo evalúe psicológicamente. También se adiestró a todo el personal de atención primaria para detectar riesgo suicida. Hoy, en Puerto Rico, no importa por qué dolor vaya usted a la clínica, se le van a hacer dos preguntas de monitoreo de salud mental.
−¿Hay otros usos interesantes en el mundo de la IA para la prevención del suicidio?
−Muchísimos. Hay relojes como, por ejemplo, los Apple Watch que te detectan los niveles de sueño, la oxigenación, la presión arterial, ¿verdad? Y ellos van detectando posibles cambios y te lo dicen. Por ejemplo, el Apple Watch a mí me dice: “Estás muy tenso, tienes que parar y respirar”. Muchas veces pienso: “Okay, yo no me di cuenta de que estoy tenso; yo no me di cuenta de que estoy ansioso, pero el watch sí. Así que me paro, me relajo y sigo. Hay veces que el malestar es indetectable para nosotros, pero ¿qué pasa? La acumulación de todo eso más adelante explota en una crisis. Y de momento tú dices: “Pero espérate, ¿de qué crisis estamos hablando si yo no vi esto venir?” Pero es que tu cuerpo ya te estaba dando alarma y tú no te estabas dando cuenta.
También hay herramientas con IA que pueden detectar cambios en el tipo de voz y en la verbalización de las personas a lo largo de sus consultas con su psicólogo y anticipar el riesgo. Hay, a su vez, algoritmos que detectan factores que generan propensión a la depresión o la ansiedad. Por ejemplo, a nivel global, los factores son que sean hombres, que tengan nivel económico bajo o que no tengan oportunidades de trabajo y que tengan alto nivel de consumo de sustancias. Este tipo de análisis de datos sirve para establecer un perfil de riesgo de depresión y ansiedad, identificar poblaciones más vulnerables, y así poder desarrollar políticas públicas direccionadas.
−Este tipo de algoritmos podría desarrollarse en la Argentina, ¿no?
−Totalmente. La Argentina es una mina de gente brillante. Es un país culto, entrenado, consciente y capaz. Aquí lo que se necesita es voluntad. Tenemos que pasar la página y movernos al futuro. Y no estoy diciendo que estén atrás; estoy diciendo que tal vez las prioridades no están donde tienen que estar. Tenemos, entonces, que ir pensando ya cómo la Argentina va a ir moviéndose en temáticas como la IA en salud, porque no se pueden quedar atrás, no pueden arrancar desde la defensiva. Yo creo que la resistencia viene porque no nos hemos sentado verdaderamente a estudiar la IA. Solamente nos estamos basando en la parte de arriba del iceberg.
La inteligencia artificial no es fría. Lo frío sería resignarnos y no usar todas las herramientas que existen para proteger a la juventud. No es parte del futuro, es el presente. No reemplaza al profesional de la salud, así como el electrocardiograma no reemplaza al cardiólogo, pero sí nos puede ayudar mucho a salvar vidas. Prevenir el suicidio es un acto de comunidad, es un acto de ciencia, es un acto de compasión. Y la Argentina tiene todos los elementos para hacerlo bien.
−Hace hincapié en el tratamiento para salvar la vida de los jóvenes. ¿Por qué?
−La Argentina atraviesa un fenómeno que merece toda nuestra atención: según los datos recientes, la tasa general de suicidios ronda entre las 9,8 y las 10 muertes por cada 100.000 habitantes. Pero el mayor aumento se está viendo entre jóvenes y adolescentes. El suicidio ya aparece como una de las primeras causas de muerte de los jóvenes, por encima de los accidentes y por encima de los tumores cerebrales.
Lo que vemos a nivel global es que hay tres dinámicas claras que se dan en la población adolescente. Número uno, la fatiga emocional y la ansiedad. Los jóvenes están creciendo en un mundo acelerado, comparativo, saturado de redes sociales. Número dos, una soledad digital. Hay mucho contacto digital, pero poca conexión real. O sea, hay un aislamiento físico. Nosotros, los seres humanos, fuimos hechos para estar juntos, en comunidad. Y fíjate que la Argentina tiene unas particularidades muy bellas: ustedes comparten el mate, van a la plaza, son todos elementos que invitan a la conexión social. Sin embargo, estamos viendo una tendencia en la juventud argentina en donde esas interacciones han mermado. Y, número tres, las barreras para pedir ayuda: la vergüenza, el estigma y el miedo a preocupar a la familia siguen siendo muros enormes para que la persona se abra para poder buscar ayuda.
−En su conferencia habló de la IA como una faca porque puede proteger o lastimar. ¿De qué depende su función?
−La IA es un arma de doble filo. Todo va a depender del diseño. Puede ser riesgosa, como todo, si no cuidamos la ética. Por ejemplo, en Estados Unidos hubo un caso de una joven que pidió asistencia a ChatGPT para suicidarse y ChatGPT se lo dio. Cuando una persona está haciendo preguntas de alto riesgo, debe saltar una alarma. Esto es algo que debe regularse porque es muy riesgoso.
Por otro lado, la IA diseñada y utilizada con ética no es una amenaza, sino un motor de esperanza. Puede servir de ruta para el inicio de un buen tratamiento de salud emocional. También puede volver más eficientes a los profesionales. Cuando la IA detecta un riesgo y un ser humano interviene con empatía, ahí ocurre el milagro. La IA abre la puerta, pero la humanidad es la que entra. Simboliza una alianza, diríamos, entre los dos mundos: la precisión de la tecnología más la calidad del ser humano. Aquí nace un nuevo modelo de cuidado. La tecnología no salva vidas por sí misma, pero sí nos da la oportunidad a nosotros de salvar a mucha gente.
−¿En ese sentido, cuál cree que es el primer paso que se debería dar en la Argentina?
-Modificar la ley de salud mental debe ser lo primero. No es posible tener una legislación que permita intervenir solo si la persona acepta voluntariamente. El Estado tiene la obligación ética de proteger la vida cuando hay riesgo inminente. En salud pública y derechos humanos existe el principio de ‘deber proteger’ cuando una vida corre peligro. Al igual que el profesional de la salud interviene cuando alguien está intoxicado, delirando, con un infarto. El riesgo de suicidio también es una urgencia médica.
El tema aquí no es castigar, no es controlar ni quitar derechos. Es lo contrario: es proteger la vida cuando la persona no está en condiciones de protegerla por su cuenta. Desde la neuropsicología y la psiquiatría sabemos que en crisis suicidas hay alteraciones en el juicio, hay impulsividad, hay pobre toma de decisiones y pobre introspección. Así que el deseo de morir es casi siempre episódico, fluctuante y se vincula a un dolor emocional bien fuerte. No es una decisión libre, no es algo que quiero hacer porque sí. De hecho, el 90% de las personas que sobreviven un intento de suicidio no vuelven a intentarlo cuando reciben el tratamiento adecuado.
