Antena3

Los médicos alertan sobre las peligrosas respuestas de Chat GPT a consultas sobre salud sin supervisión

Los médicos alertan sobre las peligrosas respuestas de Chat GPT a consultas sobre salud sin supervisión
Avatar
  • Publishednoviembre 11, 2025


Cada vez más personas utilizan la inteligencia artificial para aprender más sobre su salud y se dan cuenta consultas medicas y otros problemas relacionados con todo tipo de enfermedades potenciales en presencia de ciertos síntomas.

Él 80% de los consumidores Chat GPT ya ha utilizado la herramienta para preguntar sobre síntomas o iniciar una dieta sin acudir a un profesional sanitario, según la consultora LLorente y Cuenca (LLYC).

Algunos usuarios dijeron Antena 3 Noticias que utilizaron esta herramienta digital que funciona con inteligencia artificial para hacer consultas medicas. «Bueno, puedo verlo. Si no es algo muy serio…» compartió una mujer. “Sí, una vez subí una foto de un sarpullido y me dijo: Podría ser tal cosa”, dijo otra persona.

Ignacio, otorrinolaringólogo, dijo en Antena 3 Noticias que un paciente que escuchó un zumbido en el oído acudió a su consultorio luego de consultar Chat GPT. El chat de IA informó a estos pacientes que tuvieran “cautela, porque si tienes tinnitus, Es posible que tenga un tumor cerebral o del nervio auditivo.«, según Ignacio. Es algo extremadamente raroademás de peligroso. “Cuando te da una recomendación o te receta un medicamento que no es el adecuado para ti, tiene un problema de salud importante”.

Además, el experto advirtió que el gato puede alcanzar ‘generar alucinaciones‘. «Cuando alucina se comporta como un borracho a las tres de la mañana en un bar, es decir, te dice algo muy tranquilo y muy seguro de lo que te está diciendo. pero te dice una gran mentira«, agregó Ignacio.

Chat GPT cambia su normativa

En las últimas semanas circulan en Internet titulares que indican que desde el 29 de agosto los usuarios ya han No pudieron realizar consultas médicas ni jurídicas“Esta confusión surgió a partir de un texto político que reforzaba la idea de no utilizar la IA para decisiones que puedan presentar un alto riesgo sin revisión humana por parte de un profesional, en asuntos relacionados con servicios públicos, legales, médicos o esenciales, según el diario La Razón.

Sin embargo, Eso no significa que no pueda ofrecer información general.. De hecho, OpenAi señaló que trabajó con cientos de especialistas reconocer signos de angustia y derivar los casos a profesionales si es necesario.

Síguenos en nuestro canal whatsapp y no te pierdas las últimas novedades y todas las novedades de nuestra perfil de google.

Puedes ver todas las novedades de “Noticias 1” en Jugador.




Puedes consultar la fuente de este artículo aquí

Compartir esta noticia en: