Darle tus datos de salud a ChatGPT quizás no sea tan buena idea
¡Un diagnóstico de ChatGPT no reemplazará a tu doctor, al menos por ahora!
Confiar en la tecnología para monitorear nuestro bienestar se ha vuelto un hábito cotidiano. Llevamos sensores en la muñeca que registran cada latido y cada paso, acumulando un historial clínico digital que, hasta hace poco, solo un profesional podía interpretar. Sin embargo, con el reciente lanzamiento de herramientas especializadas como ChatGPT Salud de OpenAI o Claude de Anthropic, la tentación de obtener un diagnóstico instantáneo ha crecido. Aunque parece el futuro de la medicina, por ahora están lejos de ser infalibles.
Recientemente, un análisis publicado por The Washington Post puso a prueba la capacidad de estos sistemas utilizando una década de datos personales provenientes de un Apple Watch.
El resultado no fue una consulta médica precisa, sino una serie de calificaciones inconsistentes**. Al procesar la misma información, ChatGPT otorgó inicialmente una "F" (reprobado) a la salud cardíaca del usuario, para luego subirla a una "D" tras recibir más contexto. Por su parte, el modelo Claude asignó una "C".
La IA aún no es una fuente médica confiable
El estudio contó con la intervención de médicos humanos para evaluar los mismos datos y las conclusiones de la IA. Los profesionales calificaron los veredictos de los bots como "infundados" y confirmaron que el paciente gozaba, en realidad, de una salud excelente. Esta discrepancia subraya un problema central: la IA puede detectar patrones, pero carece del juicio clínico para entender qué datos son realmente relevantes y cuáles son ruido estadístico.
Uno de los grandes fallos de estas herramientas radica en su materia prima. La IA suele basarse en métricas estimadas por los relojes inteligentes, como el VO2 máximo, un valor que, según expertos, requiere de pruebas físicas con mascarilla y cinta de correr para ser exacto. Un algoritmo que procesa datos aproximados solo puede devolver diagnósticos aproximados.
A esto se suma una fragilidad técnica sorprendente: durante el experimento, se detectó que los bots llegaban a olvidar datos básicos del usuario, como su edad o sexo, en mitad de la conversación. En un contexto médico, omitir estos factores no es un error menor; es una falla que invalida cualquier recomendación de salud.
Vacíos legales y promesas de privacidad
Más allá de la precisión, existe un riesgo estructural relacionado con la protección de la información. Mientras que un médico humano o una institución sanitaria están obligados a cumplir con normativas estrictas como la HIPAA (Ley de Portabilidad y Responsabilidad de Seguros de Salud), las empresas de IA operan en un territorio gris.
Aunque las empresas aseguren que la información está cifrada, no están sujetas a los mismos estándares legales que rigen la privacidad médica profesional, dejando al usuario dependiendo únicamente de una promesa corporativa."
Todo cambia para Apple
Este escenario plantea un reto enorme para futuros servicios, como el rumoreado "Apple Health+" de Apple. Si líderes del sector como OpenAI y Anthropic presentan resultados tan irregulares, la presión sobre Apple será máxima. La compañía deberá demostrar que su IA no solo protege los datos, sino que sabe interpretarlos con una precisión que, hasta hoy, la tecnología no ha logrado alcanzar.
Con lo que tenemos en la actualidad, no hay mucho qué decir. Mientras la IA no pueda distinguir entre un dato mal medido por un sensor y una patología real, la mejor recomendación sigue siendo la más antigua: ante la duda, consulta a un médico de carne y hueso. La tecnología debe ser un apoyo, nunca un sustituto del criterio humano.
Puedes seguir a iPadizate en Facebook, WhatsApp, Twitter (X) o consultar nuestro canal de Telegram para estar al día con las últimas noticias de tecnología.