Doctor GPT
2 minutos de lectura'


Ya era una mala práctica buscar el significado de los resultados de tus análisis médicos en internet. Pero todo puede empeorar, y el martes último la revista científica Annals of Internal Medicine: Clinical Cases publicó los detalles de un caso insólito que a la vez funciona como una advertencia.
El paciente llegó al hospital convencido de que su vecino estaba intentando envenenarlo. Explicó, además, que llevaba una dieta muy estricta y se negó incluso a aceptar el agua que le ofrecieron, a pesar de sentirse muy sediento; destilaba su propia agua en casa, añadió. Aunque con evidentes signos de paranoia, su estado clínico era normal, así como la mayoría de los análisis a los que fue sometido. Pero los médicos entonces encontraron una serie de irregularidades que condujeron a una conclusión que no se veía desde el siglo XIX. El paciente sufría bromismo o intoxicación por bromo, que causa síntomas de psicosis.
¿Qué había pasado? Cuando lograron estabilizarlo, el paciente relató que había querido eliminar el cloro de su dieta (la sal de mesa es cloruro de sodio) y que le preguntó a ChatGPT. El bot de IA listó el bromuro de sodio entre las alternativas, pero no como alimento. El hombre de todos modos tomó la sugerencia y terminó hospitalizado.
Otras noticias de Catalejo
1Construir con telas, hablar con color: Olga de Amaral transforma el Malba en un laberinto universal
- 2
Las cenizas de Juan José Sebreli se esparcirán en Plaza Constitución el próximo viernes
3A 75 años de “La Colmena”: censurado por inmoral y pornográfico, se filtró “gota a gota” y consagró al polémico Nobel Camilo José Cela
4Cierra definitivamente el ex-Museo del Traje y el Gobierno planea abrir un espacio cultural para artistas emergentes





