el algoritmo de X (Twitter) radicaliza a los usuarios hacia posiciones políticas más conservadoras
La red social X desplaza a sus usuarios hacia posiciones políticas más conservadoras. Desde que el magnate tecnológico Elon Musk se hizo con su control que esta afirmación no es una sorpresa. Sin embargo, un nuevo estudio confirma que el algoritmo de la plataforma anteriormente conocida como Twitter tiende a esa radicalización.
[–>[–>[–>La investigación, publicada este miércoles en la revista científica Nature, demuestra que los usuarios que se informan a través del feed algorítmico de X —el modo «Para ti» que recomienda los contenidos que aparecen en pantalla en base tanto a los intereses personalizados como a los de Musk— tienden a virar hacia la derecha. Especialmente en temas políticos controvertidos como las acusaciones penales contra Donald Trump o la guerra en Ucrania.
[–> [–>[–>Por otro lado, cuando el feed es cronológico —eso es, sin estar mediado por algoritmos— no se aprecia una variación ideológica. Al menos en los 5.000 usuarios de Estados Unidos con los que los autores experimentaron para el estudio. «La exposición inicial al algoritmo de X tiene efectos persistentes en las actitudes políticas actuales de los usuarios», afirman.
[–>[–>[–>
Se puede ver la letra X blanca sobre un fondo negro, mientras que en el fondo se muestra el anterior logotipo del servicio de mensajes cortos Twitter. Foto: Monika Skolimowska/dpa / Monika Skolimowska/dpa – Archivo
[–>[–>[–>
«Quienes al principio del experimento se autodefinieron como progresistas (‘liberales’, según la terminología del estudio) sufrieron un efecto relativamente limitado de desplazamiento hacia posiciones conservadoras; en cambio, quienes al inicio afirmaron alinearse con posiciones conservadoras o independientes, evolucionaron hacia posiciones todavía más conservadoras», matiza Ramón Salaverría, catedrático de Periodismo en la Universidad de Navarra y coordinador de Iberifier (Iberian Digital Media Observatory), en unas declaraciones recogidas por Science Media Centre España.
[–>[–>[–>Deriva extremista
[–>[–>[–>
De esta manera, el documento constata una realidad a voces: las redes sociales encierran a los usuarios en cámaras de eco, burbujas en las que se rodean solo de aquella información que confirma sus segos iniciales. «Algo que destaca es que el estudio halla una constante porque el algoritmo ‘silencia’ a los medios de comunicación tradicionales, de modo que el vacío lo llenan voces más radicales. Si en un país específico las voces más activas y polarizadoras son conservadoras, el algoritmo las potenciará», apunta Celia Díaz Catalán, investigadora del Instituto TRANSOC de la facultad de Ciencias Políticas y Sociología de la Universidad Complutense de Madrid (UCM).
[–>[–>[–>
Tras comprar Twitter y rehacerla a su imagen, Musk ha hecho todo lo posible para promocionar voces de la derecha radical. A lo largo de los últimos años, el hombre más rico del mundo ha reinstado las cuentas de usuarios antes bloqueados —desde supremacistas blancos y neonazis hasta conspiranoicos varios— implantado un modelo de monetización que recompensa económicamente a los usuarios que más impacto generan, un incentivo perverso que, según varios estudios, ha hecho proliferar tanto la desinformación como el contenido de odio.
[–>[–>
[–>
El presidente de Estados Unidos, Donald Trump, y el multimillonario Elon Musk. / Europa Press/Contacto/Molly Riley/White House
[–>[–>[–>
El estudio tiene una limitación: que se centra en usuarios de EEUU en un contexto muy particular. «Por lo tanto, la dirección de los efectos ideológicos no puede generalizarse a todos los países o plataformas», explica Walter Quattrociocchi, catedrático de Informática y director del Laboratorio de Ciencias de datos y Complejidad de la Universidad de Roma La Sapienza, a SMC. «En otros ecosistemas informativos, la optimización de la participación podría amplificar de manera plausible diferentes orientaciones políticas en función de la oferta de medios locales y las redes de usuarios».
[–>[–>[–>
Suscríbete para seguir leyendo
Puedes consultar la fuente de este artículo aquí