Usar la IA para consultas médicas no es una buena idea, Google se acaba de dar cuenta por las malas
¡Un error de Google evidencia por qué es un error autodiagnosticarse con inteligencia artificial!
Los sistemas basados en IA nos siguen dando algo que ya parece habitual: polémica. Confiar ciegamente en algoritmos para descifrar síntomas o interpretar analíticas clínicas se ha convertido en una práctica de alto riesgo, obligando a tomar medidas. Tras meses promocionando sus AI Overviews (Vistas generales de IA), Google se ha visto obligada a dar un paso atrás ante la evidencia de que sus resúmenes automáticos podrían estar poniendo en peligro a los usuarios.
El problema que expuso en una investigación publicada por el diario británico The Guardian, que demostró cómo el buscador ofrecía respuestas simplistas a consultas médicas complejas. El ejemplo más crítico surgió con preguntas sobre los rangos normales en las pruebas de función hepática. La IA de Google proporcionaba cifras estandarizadas sin considerar factores biológicos fundamentales como la edad, el sexo, la etnia o el historial clínico del paciente.
La IA generativa no sustituye la interpretación humana en el sector salud
Lo que para un sistema de IA es un dato estadístico, para un paciente puede ser una interpretación errónea de su estado de salud. Vanessa Hebditch, directiva del British Liver Trust, señaló tras conocerse los hechos que la retirada de estos resúmenes es una "excelente noticia", subrayando que el peligro no radica solo en un error puntual, sino en la idoneidad misma de usar IA para asuntos tan delicados.
La respuesta de la compañía de Mountain View ha sido la eliminación selectiva de estas respuestas generadas automáticamente en ciertas búsquedas de salud. Sin embargo, este "parche" ha revelado las costuras de la tecnología:
- Vulnerabilidad a las variantes: Aunque Google bloqueó la pregunta directa sobre el hígado, variaciones sutiles en el lenguaje o el uso de siglas médicas seguían activando la IA, demostrando que el control total sobre estos sistemas es una tarea casi imposible a escala global, hoy en día.
- La defensa técnica vs. la realidad clínica: Portavoces de la empresa argumentaron que un equipo de médicos internos revisó las consultas y determinó que la información no era técnicamente incorrecta y provenía de fuentes fiables. El problema, por tanto, no es la fuente, sino la omisión del contexto clínico que solo un profesional puede aportar.
Aunque la tecnología promete eficiencia y rapidez, la salud humana exige una precisión y un contexto que las máquinas, por ahora, son incapaces de procesar con total seguridad. Este escenario plantea un dilema ético: ¿es responsable permitir que una IA resuma información médica cuando un pequeño matiz omitido puede llevar a una persona a ignorar una urgencia real?
Puedes seguir a iPadizate en Facebook, WhatsApp, Twitter (X) o consultar nuestro canal de Telegram para estar al día con las últimas noticias de tecnología.