por qué es vital que las plataformas actúen antes de que sea demasiado tarde
Torre-Pacheco vive tranquilo. Sin embargo, esa tranquilidad vive con Una campaña de odio que circula a través de las redes sociales: Perfiles vinculados a los alrededores de los mensajes xenófobos y racistas de difusión ultra derecho que ponen en la población migrante, que incluso llaman «delincues de mierda».
Los mensajes, diseminado A través de canales comunes del entorno VOX, no solo insultan o señalan, sino que imitan organizaciones supremacistas como el Ku Klux Klan. Se llama la «defensa del pueblo español», la creación de patrullas del vecindario armadas con palos y Se lanzan amenazas directas:«Tienes que enviarlos al hospital»Dicen en algunos videos.
El tono, el lenguaje y las propuestas extremas tienen todos los elementos de lo que el código penal puede considerar el crimen de odio. Aún así, Este tipo de contenido todavía se puede acceder públicamente en las redes sociales. Como X (anteriormente Twitter), Facebook o Tiktok. ¿Por qué no eliminar? ¿Por qué continúa circulando?
¿Se puede retirar este contenido?
Si es posible. De hecho, debería. Pero hay un matiz: para que las redes sociales estén obligadas a actuar, Debe haber un aviso anterior. Solo cuando una plataforma recibe una notificación, ya sea de la policía, la oficina del fiscal o un usuario simple, tiene el deber de revisar si el contenido viola la ley y, si lo hace, la retire.
Es decir, sin esa queja anterior, no están legalmente obligados a eliminar nada, incluso si el contenido es claramente criminal. Algunas plataformas lo hacen por su propia iniciativa En casos muy específicos, como la pedofiliaPero en el caso del discurso de odio no tienen sistemas de detección generalizados activados. Y, lo más importante: no están obligados a tenerlos.
¿Por qué no se ven obligados a detectarlo por sí mismos?
La respuesta es en el origen del diseño legal de Internet. Redes sociales No se consideran responsables del contenido publicado en ellos… hasta que sean conscientes de que este contenido es ilegal. Si se les pidiera que monitoreen y eliminen todo por su propia iniciativa, todo el sistema en el que se han construido las redes sociales. No es que no puedan, No quieroY los gobiernos, por el momento, no forzan ese cambio, como señala el consultor de estrategia digital, Borja Adsuara.
El sistema del faro: la vigilancia (parcial) que existe
Para reemplazar esta ausencia de control, hay iniciativas como el sistema FARO, del Ministerio de inclusión. Es un equipo que, a través de algoritmos y supervisión humana, Analizar las redes sociales en busca de discursos de odio. En el primer semestre de 2025, Faro detectó más de 340,000 mensajes de este tipo. De estos, notificó 1.607 publicaciones a las plataformas. Solo se eliminaron 498.
Tiktok se destaca como el más efectivoEliminar casi todo lo que se notifica. En el lado opuesto, YouTube y X apenas retiran contenido, y cuando lo hacen, no son precisamente rápidos.
Dada esta situación, el Ministerio de inclusión planes para cumplir con estas plataformas Solicitar una mayor participación y agilidad. Pero, por ahora, la realidad es que los mensajes de odio siguen siendo visibles. Incluso aquellos que promueven patrullas armadas contra migrantes o imitan las tácticas de grupos supremacistas como el Ku Klux Klan.
Puedes consultar la fuente de este artículo aquí