IA EN REDES SOCIALES | TikTok marcará los vídeos generados con inteligencia artificial para frenar estafas y desinformación
El alud de vídeos generados con inteligencia artificialse ha convertido en un riesgo para TikTok. Para evitar quedar sepultada, la popular plataforma de vídeo ha anunciado hoy que activará una marca de agua que le permitirá detectar mejor ese tipo de contenidos sintéticos para eliminarlos en caso de que incumplan sus normas de comunidad. Este sistema de marcaje, invisible para los usuarios y que se testeará «en las próximas semanas», tendrá el reto de añadir claridad en un feed donde la IA ocupa cada vez más espacio.
[–>[–>[–>Propiedad del gigante chino ByteDance, la compañía también desplegará en esa misma dirección una batería de medidas que incluye dar más poder a los más de 1.000 millones de usuarios que tiene en todo el mundo —200.000 en la Unión Europea— para puedan elegir qué cantidad de contenido de IA quieren ver y la creación de un fondo educativo de dos millones de dólares destinado a acelerar la creación de contenido «que enseñe a las personas sobre la alfabetización y seguridad en materia de IA» en hasta 12 mercados.
[–> [–>[–>El reto de la IA generativa no es nuevo para TikTok. En 2023, la plataforma activó una función que permite a los usuarios etiquetar el contenido sintético como tal para que sus audiencias lo sepan. Ese mecanismo ha permitido identificar desde entonces hasta 1.300 millones de vídeos generados con IA. Probablemente hay muchos más circulando dentro de la aplicación.
[–>[–>[–>
Frenar los contenidos problemáticos
[–>[–>[–>
Con este método, TikTok pretende agilizar el cumplimiento de sus políticas y frenar problemas como la desinformación o las estafas. Aunque la marca de agua ayudará en la detección interna, la compañía ya cuenta con sistemas automatizados para bloquear los contenidos que infrinjan las normas, explica Jade Nester, directora de Seguridad, Privacidad y Política Pública de Datos de TikTok en Europa, a EL PERIÓDICO.
[–>[–>[–>Solo en la primera mitad de 2025, la compañía ha eliminado más de 70 millones de productos falsos que pretendían anunciarse en su tienda en línea, TikTok Shop, para engañar a los usuarios y hacerles pagar por nada. Así se indica en un informe reciente en el que se advierte de que este tipo de estafas con IA han aumentado un 40% respecto al segundo semestre de 2024. «Para ser honesto, se trata de crimen organizado», ha lamentado Nicolas Waldmann, director del equipo de asuntos externos de gobernanza y experiencia de TikTok Shop, en declaraciones a Business Insider.
[–>[–>[–>
IA contra IA
[–>[–>[–>
Irónicamente, la IA es también una aliada de TikTok. La plataforma utiliza desde hace años distintas tecnologías como los modelos de visión por computadora, los de identificación de palabras o los de audio para la moderación de contenidos. Estos sistemas han permitido que, en la primera mitad del año, un 86% del contenido que viola las normas haya sido eliminado de forma automatizada y que se hayan reducido un 34% las decisiones imprecisas. «La IA nos ayuda a escalar la moderación de contenidos para hacer frente a los nuevos retos», explica Brie Pegum, directora global de Riesgos Regulatorios en TikTok.
[–>[–>
[–>Dónde no llegan las máquinas es dónde tratan de llegar los moderadores humanos, cruciales para saber leer el contexto de cada vídeo. Y es que no es lo mismo utilizar un cuchillo para preparar una receta que para amenazar a alguien. La compañía —que cuenta con al menos 6.000 de ellos en Europa— asegura que esa automatización no busca eliminar puestos de trabajo para reducir costes, sino complementar y agilizar una tarea psicológicamente peligrosa. En ese sentido, los modelos de lenguaje aplicados por TikTok están permitiendo reducir en un 76% la revisión humana de contenido gráfico como asesinatos. «La IA no es perfecta, pero es un inicio prometedor», valora Pegum.
[–>[–>[–>
Suscríbete para seguir leyendo
Puedes consultar la fuente de este artículo aquí