El caso de un paciente que retrasó su diagnóstico de cáncer tras seguir consejos de ChatGPT reaviva el debate sobre los límites de la inteligencia artificial en medicina y la urgencia de marcos regulatorios más claros
4 minutos de lectura'

Un hombre irlandés de 37 años decidió confiar en ChatGPT para entender qué le pasaba. Consultó al chatbot por un dolor de garganta persistente y recibió una respuesta tranquilizadora: “es altamente improbable que tengas cáncer”. Meses después, un médico le diagnosticó un cáncer de esófago avanzado. El caso, que recorrió medios internacionales, se volvió símbolo de los riesgos de usar inteligencia artificial para consultas médicas sin supervisión profesional.
Warren Tierney, psicólogo y padre de familia, comenzó a usar la herramienta para descartar enfermedades. A medida que los síntomas empeoraban, volvió a consultarla varias veces. Cuando finalmente acudió a un hospital, el diagnóstico fue devastador: un adenocarcinoma avanzado con escasas probabilidades de supervivencia. Desde su cama, Tierney reconoció que haber confiado en el chatbot “probablemente le costaron algunos meses de vida”.
La historia expone una tensión creciente: la facilidad con la que millones de usuarios incorporan la inteligencia artificial a su vida cotidiana frente a los límites de su fiabilidad en temas críticos. Los modelos de lenguaje como ChatGPT no fueron diseñados para brindar asesoramiento médico individual ni reemplazar al criterio de un profesional. Sin embargo, la tentación de recibir respuestas inmediatas y gratuitas —sin turnos ni esperas— sigue ganando terreno.
“El mayor riesgo es la confianza excesiva”
Para entender los alcances y los límites de este fenómeno, Hernán Seoane, consultor en innovación estratégica en salud e inteligencia artificial, advierte: “El mayor riesgo es la confianza excesiva. Estas herramientas pueden sonar muy seguras aunque se equivoquen. Pueden alucinar datos, carecer de contexto clínico o desconocer tus antecedentes. Sirven para informar y orientar, pero no reemplazan a una consulta médica”.
Seoane también subraya la cuestión de la privacidad: “no todo chat es un ámbito adecuado para contar información sensible”, y agrega que muchos modelos están entrenados con datos de contextos ajenos al local. “Lo que funciona en un hospital de Estados Unidos puede no funcionar igual en Salta o en el conurbano”, ejemplifica.
Desde el punto de vista técnico, distingue entre un modelo general como ChatGPT y uno médico especializado. “Un modelo general es un gran conversador entrenado con internet y libros, pero no está diseñado para tomar decisiones clínicas. En cambio, una IA médica se alimenta con datos curados, usa estándares de diagnóstico y pasa por evaluaciones regulatorias. Además, tiene trazabilidad: se sabe con qué datos se entrenó y cómo se actualiza”.

Copiloto, no reemplazo
Consultado sobre si la IA está lista para participar en el diagnóstico, Seoane es claro: “Sí, pero como apoyo y en tareas bien definidas. Puede priorizar imágenes sospechosas para que el radiólogo las vea primero o resumir historias clínicas o asistir en triajes telefónicos. Donde hay evidencia y supervisión, mejora tiempos y reduce errores. Lo que no está preparado es un ‘doctor automático’ que diagnostique solo, sin contexto ni responsabilidad clínica.”
El especialista imagina una integración “humano en el centro, IA como copiloto”: el asistente digital ayuda con síntomas y derivaciones, siempre aclarando sus límites. Durante la consulta, puede sugerir alertas de fármacos o redactar un resumen clínico; y en la gestión, optimizar turnos y auditorías. “La clave es seguridad, auditoría y transparencia: quién usó la IA, qué recomendó y con qué evidencia.”
El marco regulatorio que falta
Para evitar tragedias como la de Tierney, Seoane plantea tres capas de regulación. Primero, validación clínica según el nivel de riesgo: “cuanto más impacto tiene en la salud, más estrictas deben ser las pruebas antes y después de su uso”. Segundo, gobernanza de datos: calidad, consentimiento y representatividad. “No queremos modelos que funcionen bien solo para un grupo”. Y tercero, transparencia y responsabilidad: “que el usuario sepa qué hace la herramienta, qué no hace, con qué evidencia fue validada y quién responde si hay un error”.
El consultor recuerda que existen estándares internacionales y que muchos sistemas de IA médica ya son tratados por los reguladores como dispositivos médicos. “Hay reglas para diseñar, probar, actualizar y monitorear estas herramientas, igual que con un electrocardiógrafo; solo que aquí el dispositivo es un algoritmo”.
Finalmente, Seoane sintetiza su postura con una frase que podría funcionar como guía para la era de la salud digital: “La innovación responsable no es frenar, es avanzar con evidencia, reglas claras y con el profesional como garante de la decisión final”.
1Se dispara una peligrosa enfermedad de transmisión sexual
2Cheques sin fondos, hacienda en movimiento y un feedlot bajo sospecha: el allanamiento que recuperó ganado por $2000 millones
3La historia de amor de Valentino y Giancarlo: 66 años de una relación invencible
- 4
Identificaron a un quinto argentino detenido en Venezuela y advierten que tiene un deterioro psicosocial



