Antena3

no da importancia a más de la mitad de las emergencias sanitarias

no da importancia a más de la mitad de las emergencias sanitarias
Avatar
  • Publishedmarzo 16, 2026


La inteligencia artificial se ha convertido en una herramienta cada vez más utilizada para resolver cuestiones de salud, pero un nuevo estudio científico advierte que Su uso en situaciones médicas críticas todavía presenta riesgos importantes.

La investigación, publicada en la revista Nature Medicine, analizó el funcionamiento de ChatGPT Health, una versión del famoso chatbot diseñada para responder preguntas sobre salud. Los investigadores evaluaron su capacidad para recomendar el nivel adecuado de atención médica en diferentes escenarios clínicos.

Para ello, un equipo de especialistas diseñó 60 casos clínicos vinculados a 21 especialidades médicas diferentes. Cada uno de estos casos fue analizado en 16 contextos diferentes, teniendo en cuenta factores como el sexo del paciente, el acceso a la atención sanitaria o la influencia de los familiares en la descripción de los síntomas. Se realizaron un total de 960 interacciones con el sistema, cuyos resultados se compararon con el consenso de varios médicos y las guías clínicas de decenas de sociedades científicas.

Los resultados mostraron que la inteligencia artificial cometió errores importantes al clasificar los casos. Específicamente, Subestimó la gravedad del 52% de las situaciones que requieren atención urgente.recomendando acudir al médico en uno o dos días en lugar de acudir inmediatamente a urgencias.

Errores de diagnóstico

Entre los ejemplos analizados por los investigadores se encuentran casos potencialmente mortales como cetoacidosis diabética o insuficiencia respiratoria inminenteen el que el sistema aconsejaba esperar en lugar de acudir inmediatamente al hospital. Sin embargo, identificó correctamente emergencias más obvias, como un derrame cerebral o una reacción alérgica grave.

El estudio también detectó que las respuestas de la IA podrían verse influenciadas por el contexto de la conversación. En escenarios simulados Aparecieron familiares o acompañantes minimizando los síntomas, el sistema tendió a reducir aún más la urgencia. del caso, un fenómeno que los investigadores llaman “sesgo de anclaje”.

Además, en los casos menos graves se produjo el fenómeno contrario: la herramienta urgencia sobreestimada en casi el 65% de las consultas no urgentesrecomendar atención médica cuando en realidad no era necesaria.

Esto no reemplaza a nuestro médico.

Los autores del estudio advierten que estos resultados resaltan la necesidad de validar rigurosamente los sistemas de inteligencia artificial aplicados a la atención sanitaria antes de su implementación generalizada. Según explican, este tipo de herramientas pueden servir como un soporte informativo, pero no debe sustituir el juicio clínico de los profesionales de la salud.

Por su parte, la empresa desarrolladora destaca que el sistema está diseñado para ofrecer consejos generales y que su funcionamiento real se basa en conversaciones más largas con el usuario, donde se puede aportar más contexto sobre los síntomas. Además, la herramienta aún está en desarrollo y no pretende reemplazar la evaluación médica profesional.

Síguenos en nuestro canal whatsapp y no te pierdas las últimas novedades y todas las novedades de nuestra perfil de google.




Puedes consultar la fuente de este artículo aquí

Compartir esta noticia en: