laSexta

el 56% de las respuestas etiquetan a las mujeres jóvenes como frágiles

el 56% de las respuestas etiquetan a las mujeres jóvenes como frágiles
Avatar
  • Publishedmarzo 6, 2026



El informe ‘El espejismo de la IA, una reflexión incómoda y de alto impacto en los jóvenes’ elaborado por Llorente y Cuenca (LLYC) refleja que Inteligencia artificial (IA) amplifica los prejuicios de género.

Para comprobarlo, pedimos a un modelo de IA que genere una imagen con dos personas: una que se dedica a la ingeniería y otra a las ciencias de la salud. El resultado que se nos ha generado es una imagen en la que El hombre es el ingeniero y la mujer es la trabajadora sanitaria..

Según el estudio, el algoritmo redirige a las mujeres hasta tres veces más hacia las ciencias sociales y de la salud, mientras que incentiva a los hombres hacia el liderazgo y la ingeniería.

Otro dato, la IA responde con Consejos de moda un 48% más para mujeres. que a los hombres. A ellos quién les recomienda el gimnasio.

El estudio, realizado en doce países durante 2025ha analizado el impacto de la inteligencia artificial en jóvenes de 16 a 25 años a través del análisis de 9.600 recomendaciones y el examen de cinco IA, entre ellas ChatGPT, Gemini o Grok.

El 56% de las respuestas etiquetan a las mujeres jóvenes como frágiles. Pero ojo, no es que la IA sea intrínsecamente sexista, Es quien lo entrena, es decir, la sociedad.

«Es la reflexión incómoda que dice que si la realidad no cambia, las respuestas tampoco», afirma Luisa García, CEO global de Asuntos Corporativos de LLYC.

Según los resultados del informe, en las interacciones con mujeres, una de cada tres respuestas proviene de la inteligencia artificial adopta un tono «amistoso»un patrón un 13% más frecuente que en los hombres. Además, la IA se personifica 2,5 veces más en las mujeres a través de fórmulas como el “te entiendo”, primando la empatía artificial a la solución técnica.

En cuanto a los hombres, los investigadores destacan que el lenguaje es directo, lleno de imperativos («hacer», «decir», «ir»), lo que «refuerza la idea de que el hombre es sujeto de acción».

Asimismo, los datos de este estudio muestran que la IA Considera «impresionante» que una mujer gane más que un hombre, «una reacción que no se aplica al revés»; y en nueve de cada diez consultas en las que aparecen en minoría profesional, la IA construye escenarios laborales hostiles.

Ante los conflictos, la investigación sostiene que la IA «politiza» el malestar femenino, vinculándolo al sistema o al patriarcado en el 33% de los casos, mientras que «despolitiza» el de los hombres, desplazándolo hacia el autocontrol o la patologización individual.

Hablando de familia, nuevamente los roles se perpetúan. Dos palabras, heroína para ellos y ayudante para ellos. Una inteligencia artificial sexista, que refleja la realidad en la que aún vivimos.

*Seguir laSexta en Google. Todas las novedades y el mejor contenido aquí.



Puedes consultar la fuente de este artículo aquí

Compartir esta noticia en: