Antena3

El Gobierno incluirá los «deepfakes» como vulneración al derecho al honor

El Gobierno incluirá los «deepfakes» como vulneración al derecho al honor
Avatar
  • Publishedenero 13, 2026


Es muy probable que navegando por alguna red social te encuentres con alguno de estos vídeos. Imágenes aparentemente auténticas, personas con gestos reales y precisión en el tono o la voz. Personalidades que dicen premiarte, han seleccionado tu CV o promocionan productos milagrosos.

Este tipo de contenidos, cada vez más frecuentes, se integran casi imperceptiblemente en el flujo constante de información digital, desdibujando la línea entre lo verdadero y lo inventado, pero se trata de vídeos falsos, realizados con inteligencia artificial: son falsificaciones profundas.

Objetivo: detener los deepfakes

El gobierno ahora se centra en ellos. Este martes, el Consejo de Ministros aprobó un proyecto de ley para incluir los deepfakes entre los crímenes contra el honor. El texto incluye la obligación de que influencers, medios y plataformas rectifiquen cuando una persona lo solicite si su imagen ha sido manipulada con inteligencia artificial.

Además, estos medios tendrán que facilitar un medio para que esto pueda reclamarse fácilmente y habrá plazos para hacerlo: diez días en el caso de los medios tradicionales y 20 días en el caso de los digitales. El objetivo de esta ley es detener la manipulación de imágenes y voces creadas con inteligencia artificial. Por supuesto, los vídeos de humor quedan a un lado.

Intentan estafar con estas herramientas

Los ejemplos son numerosos: Georgina Rodríguez seleccionando currículums, Messi apostando, Rosalía entregando premios y nuestro presentador matutino, Manu Sánchez, hablando de un producto milagro.

Todos estos vídeos que circulan en las redes sociales han sido manipulados. ¿Cómo lo hacen? Usan el video original para modificar el mensaje clonar voz con Inteligencia Artificial y cada vez hay más. «La voz es imitada, e incluso física. Podemos hacer que un vídeo o un audio suplantemos a cualquier persona que conozcamos», explica Miguel López, director general de Barracuda Networks en España.

Para el experto la regulación es necesaria pero reconoce que «aunque podamos determinar que este vídeo es falso, es posible que el daño a la imagen ya se haya producido».

Síguenos en nuestro canal whatsapp y no te pierdas las últimas novedades y todas las novedades de nuestra perfil de google.

Puedes ver todas las novedades de “Noticias 1” enAtresplayer.




Puedes consultar la fuente de este artículo aquí

Compartir esta noticia en: