Estudio muestra que IA no es mejor que otros métodos para pacientes que buscan asesoramiento médico

Por Jennifer Rigby
LONDRES, 9 feb (Reuters) - Consultar a la inteligencia artificial sobre síntomas médicos no ayuda a los pacientes a tomar mejores decisiones sobre su salud que otros métodos, como una búsqueda estándar en internet, de acuerdo a un nuevo estudio publicado en Nature Medicine
Los autores afirmaron que el estudio era importante, ya que cada vez más personas recurren a la IA y a los chatbots para obtener asesoramiento sobre su salud, pero sin pruebas de que este sea necesariamente el mejor enfoque y el más seguro
Investigadores dirigidos por el Instituto de Internet de la Universidad de Oxford trabajaron junto con un grupo de médicos para elaborar 10 escenarios diferentes, que iban desde un resfriado común hasta una hemorragia cerebral potencialmente mortal
Cuando se probó sin participantes humanos tres grandes modelos lingüísticos —Chat GPT-4o de Open AI, Llama 3 de Meta y Command R+ de Cohere— identificaron las afecciones en el 94,9% de los casos y eligieron el curso de acción correcto, como llamar a una ambulancia o acudir al médico, en un promedio del 56,3% de los casos
A continuación, los investigadores reclutaron a 1298 participantes en Reino Unido para que utilizaran la IA, sus recursos habituales, como la búsqueda en internet, su experiencia o el sitio web del Servicio Nacional de Salud, para investigar los síntomas y decidir el siguiente paso a seguir
Cuando los participantes hicieron esto, se identificaron las afecciones pertinentes en menos del 34,5% de los casos y se indicó el curso de acción adecuado en menos del 44,2%, lo que no fue mejor que el grupo de control que utilizó herramientas más tradicionales
Adam Mahdi, coautor del artículo y profesor asociado en Oxford, dijo que el estudio mostraba la "enorme brecha" entre el potencial de la IA y los inconvenientes que surgían cuando la utilizaban las personas
"El conocimiento puede estar en esos bots; sin embargo, este conocimiento no siempre se traduce en la interacción con los seres humanos", explicó, lo que significa que es necesario seguir trabajando para identificar por qué ocurre esto
El equipo estudió en detalle alrededor de 30 interacciones y concluyó que, a menudo, los humanos proporcionaban información incompleta o errónea, pero que los modelos también generaban a veces respuestas engañosas o incorrectas
Por ejemplo, a un paciente que describía los síntomas de una hemorragia subaracnoidea —una afección potencialmente mortal que provoca sangrado en el cerebro— la IA le indicó correctamente que acudiera al hospital tras describir rigidez en el cuello, sensibilidad a la luz y "el peor dolor de cabeza de su vida". Otro paciente describió los mismos síntomas, pero con un dolor de cabeza "terrible", y se le indicó que se tumbara en una habitación a oscuras
El equipo tiene ahora previsto realizar un estudio similar en diferentes países e idiomas, y a lo largo del tiempo, para comprobar si eso afecta al rendimiento de la IA. (Reporte de Jennifer Rigby; reporte adicional de Supantha Mukherjee; Editado en español por Javier Leira)



