Salud

la mitad de sus respuestas médicas son erróneas o peligrosas

la mitad de sus respuestas médicas son erróneas o peligrosas
Avatar
  • Publishedabril 15, 2026


La escena se repite cada vez más en las consultas españolas: los pacientes llegan con un diagnóstico o una pauta dictada por un asistente de inteligencia artificial. Sin embargo, lo que parece ser una herramienta útil es en realidad un campo minado de imprecisiones. una investigacion publicado esta semana en la revista científica ‘BMJ Open’ revela que el 50% de las respuestas propuestas por cinco chatbots más populares del mercado sobre temas críticos de salud son problemáticos, incompletos o completamente incorrectos.



Puedes consultar la fuente de este artículo aquí

Compartir esta noticia en: