Nacionales

Uno de cada dos diagnósticos médicos con inteligencia artificial puede ser erróneo – Al Día cr

Uno de cada dos diagnósticos realizados con herramientas de inteligencia artificial puede ser erróneo e incluso pasar por alto emergencias reales, según afirman especialistas basándose en estudios recientes.

Según una investigación publicada en 2026 en la revista científica Nature Medicine, una aplicación de inteligencia artificial subclasificaba el 51,6% de los casos que los médicos consideraban emergencias y recomendaba atención en un plazo de 24 o 48 horas en lugar de una consulta inmediata.

El estudio también mostró que la herramienta sobreclasifica el 64,8% de los casos no urgentes, lo que refleja inconsistencias en la evaluación de la gravedad de los síntomas.

«Es una herramienta que puede ayudar, pero no comprende del todo un diagnóstico médico. Si se exageran o minimizan los síntomas, el resultado puede ser completamente diferente a la realidad», explica Rubén Fallas, de la Facultad de Informática de la Universidad Hispanoamericana.

Además, el especialista agregó que estos sistemas pueden estar equivocados hasta en un 50%, por lo que no deben sustituir el criterio médico.

«Falsa seguridad»

El riesgo también aumenta porque las respuestas de la inteligencia artificial suelen presentarse de forma clara y convincente.

Según los expertos, esto puede generar una falsa sensación de seguridad entre los usuarios, quienes pueden asumir que la recomendación es correcta sin verificarla con un profesional de la salud.

Por ello, insistieron en que estas herramientas sólo deben utilizarse como apoyo informativo.

(Archivo de fotografía/observador).

Datos en riesgo y lagunas legales

Por otro lado, el uso de la inteligencia artificial en salud también implica compartir información sensible, como diagnósticos, exámenes o antecedentes médicos.

Aunque las plataformas afirman proteger los datos, los especialistas advierten que siempre existe el riesgo de filtraciones.

«Los datos médicos son extremadamente sensibles. Si esa información se ve comprometida, puede usarse para influir en una persona o incluso en una organización», dijo Fallas.

En Costa Rica, la ley 8968 de protección de las personas físicas contra el tratamiento de sus datos personales establece restricciones respecto de estos avances tecnológicos.

Actualmente existe una iniciativa que busca fortalecer estas regulaciones e incluir la regulación de datos biométricos y neuronales.

La IA debe ser complementaria

Los especialistas coinciden en que la inteligencia artificial puede ser útil como herramienta de apoyo, pero no sustituye a la valoración médica.

De igual forma, advierten que una mala interpretación en contextos vulnerables puede provocar ansiedad o decisiones apresuradas.

Por ello, recomiendan utilizar estas plataformas con precaución y acudir a un profesional de la salud si algún síntoma requiere evaluación clínica.