Tecnología

YouTube amplía su sistema para detectar deepfakes

YouTube amplía su sistema para detectar deepfakes
Avatar
  • Publishedmarzo 10, 2026



En los últimos años, el tema de los deepfakes ha pasado de ser una curiosidad técnica a una preocupación genuina de debate público. Las herramientas de IA generativa permiten crear vídeos cada vez más convincentes, capaces de imitar rostros, voces y gestos con una precisión que hace apenas unos años habría parecido ciencia ficción. En este contexto, YouTube anunció la ampliación de una herramienta diseñada para abordar este desafío: Su sistema de detección de uso indebido de imágenes generado por IA.

La plataforma ha sido confirmada. Ampliación de la detección de similitudesuna tecnología diseñada para identificar contenido generado por IA que utiliza la imagen o identidad de un individuo sin autorización. El sistema se lanzará en 2024 para los creadores del Programa de socios de YouTube, pero ahora la compañía lo está expandiendo a Un nuevo grupo de funcionarios gubernamentales, periodistas y candidatos políticoslos datos personales son particularmente vulnerables a este tipo de suplantación digital.

Cómo funciona esta herramienta Esto recuerda al famoso sistema Content ID que YouTube utiliza desde hace años. Detectar material protegido por derechos de autor. En este caso, en lugar de buscar coincidencias de audio o vídeo, el sistema analiza el contenido generado por IA para determinar si contiene una imagen o el rostro de una persona específica. Si se detecta una coincidencia (por ejemplo, un deepfake que muestra el rostro de un político o periodista) Las personas afectadas pueden ver el vídeo y solicitar su eliminación. Si cree que ha habido una violación de la Política de Privacidad de la Plataforma.

Por supuesto, el hecho de que se detecte contenido no significa que se eliminará automáticamente. YouTube destaca que cada caso será evaluado individualmente Mantener un equilibrio entre la protección de la identidad y la libertad de expresión. La compañía recuerda que existen excepciones para contenidos de interés público y para formas como la parodia o la sátira política, que forman parte del debate democrático y la cultura digital.

Para evitar el abuso del sistema, YouTube requiere que los participantes verifiquen su identidad antes de usar la herramienta. Los datos proporcionados durante este proceso sólo se utilizan para confirmar la identidad del usuario y activar el sistema de protección, y la empresa garantiza que no se utilizarán para entrenar los modelos de inteligencia artificial de Google.

La expansión de la tecnología se produce en un momento en que las plataformas digitales están bajo ataque. Crece la presión para abordar el impacto de la IA generativa en la información pública. Los deepfakes, que pueden imitar rostros, voces o gestos de manera realista, se han convertido en una preocupación creciente, especialmente porque influyen en figuras públicas o debates políticos.

En su declaración, YouTube señaló iniciativas legislativas como la Ley de Estados Unidos para detener la suplantación de identidad, que busca fortalecer las protecciones legales contra la suplantación de identidad por inteligencia artificial. Sin embargo, El debate sobre dichos contenidos es global. Europa también está desarrollando un marco regulatorio destinado a aumentar la transparencia en torno al contenido generado por IA y limitar los usos más problemáticos de estas tecnologías.

La expansión de herramientas como la detección de similitudes refleja ¿Hasta qué punto las plataformas están intentando adaptarse a esta nueva realidad?. La inteligencia artificial ofrece enormes posibilidades para la creatividad digital, pero también conlleva riesgos claros para la reputación de las personas y la calidad del debate público, lo que obliga a las empresas de tecnología y a los reguladores a repensar cómo proteger las identidades en Internet.

Más información



Puedes consultar la fuente de este artículo aquí

Compartir esta noticia en: