Tecnología

Los deepfakes de 2026 harán imposible distinguir la realidad digital

Los deepfakes de 2026 harán imposible distinguir la realidad digital
Avatar
  • Publisheddiciembre 31, 2025



La aparición de herramientas de inteligencia artificial potentes, potentes y fáciles de usar hace posible manipular contenidos digitales de audio, vídeo e imágenes de formas hasta ahora desconocidas. El fenómeno apenas comienza, advierten algunos investigadores Su capacidad, volumen y potencial crecen exponencialmente utilizado en ciberataques. En resumen, los deepfakes de 2026 harán imposible distinguir la realidad de la ficción.

Los deepfakes, junto con el ransomware, son los principales ciberataques de 2024 y han «mejorado» significativamente este año. La calidad de las representaciones de rostros, voces y cuerpos completos generadas por IA que imitan a personas reales superó con creces las expectativas de los expertos. Además, se utilizan cada vez más para engañar a los usuarios.

En muchas situaciones cotidianas, especialmente en las videollamadas de baja resolución y en los contenidos multimedia compartidos en las redes sociales, el realismo es ahora suficiente para engañar de forma fiable a los espectadores inexpertos. En la práctica, Los medios sintéticos son indistinguibles de las grabaciones reales Esto es válido para la gente corriente y, en algunos casos, incluso para las empresas e instituciones.

Este crecimiento no se limita a la calidad del desarrollo. Empresas de ciberseguridad: el número de deepfakes crece exponencialmente golpe profundo Se estima que el número de deepfakes en línea será de aproximadamente 500.000 en 2023 y aumentará a aproximadamente 8 millones en 2025, de los cuales La tasa de crecimiento anual se acerca al 900%. Frente a estos desafíos, se ha logrado poco progreso a pesar de los informes que destacan las amenazas que la IA generativa representa para la realidad digital y las propuestas para un marco de defensa de múltiples capas.

Uno de los autores del informe, profesor de informática y director del Laboratorio Forense de Medios de la Universidad de Buffalo, publicó un análisis de la situación prediciendo que el próximo año será tan terrible que la mayoría de la gente no podrá distinguir el contenido legítimo.

«Mejoras» sorprendentes en los deepfakes

Hay varios cambios técnicos detrás de esta drástica actualización. primero, realismo del vídeo Un gran salto adelante gracias a un modelo de generación de vídeo diseñado específicamente para mantener la coherencia temporal. Estos modelos producen vídeos con movimiento coherente, identidad coherente de las personas representadas y contenido coherente de cuadro a cuadro. Estos modelos separan la información relacionada con la representación de la identidad de una persona de la información sobre el movimiento, de modo que el mismo movimiento pueda asignarse a diferentes identidades. O una misma identidad puede tener múltiples tipos de acciones.

Estos modelos pueden producir rostros estables y coherentes sin el parpadeo, la torsión o la distorsión estructural alrededor de los ojos y la barbilla que alguna vez fueron evidencia forense confiable de un deepfake.

En segundo lugar está, clonación de sonido ha cruzado lo que los expertos llaman un «umbral indistinguible». Ahora, unos segundos de audio son suficientes para generar clones convincentes con entonación, ritmo, énfasis, emoción, pausas y ruidos de respiración naturales. Esta capacidad ha permitido el fraude a gran escala. Algunos grandes minoristas informan que reciben más de 1000 llamadas fraudulentas generadas por IA todos los días. Las señales perceptivas que antes revelaban sonidos sintetizados prácticamente han desaparecido.

En tercer lugar, el consumo de herramientas ha disminuido. barreras técnicas Casi cero. La llegada de aplicaciones de IA aumentada como Sora 2 de OpenAI o Veo 3 de Google, así como una ola de startups, permiten a cualquiera describir una idea, escribirla mediante una amplia gama de modelos de lenguaje como ChatGPT de OpenAI o Gemini de Google, y generar contenido audiovisual de alta calidad en minutos. Los agentes de IA pueden automatizar todo el proceso. La capacidad de generar deepfakes coherentes y basados ​​en argumentos a escala se ha democratizado de manera efectiva.

Este número cada vez mayor de personajes que son casi indistinguibles de personas reales crea serios desafíos para detectar deepfakes, especialmente en un entorno mediático donde la capacidad de atención de las personas está dividida y el contenido circula más rápido de lo que puede verificarse. También hubo numerosos informes de daños reales: Desinformación, acoso, estafas financieras y casi todos los ciberataquesUna vez que los deepfakes de IA dejen de ser una característica teórica y se conviertan en una “solución” explotable en el mundo real, socavarán la confianza digital, expondrán a las empresas a nuevos riesgos y facilitarán las operaciones comerciales de los ciberdelincuentes.

Deepfakes en 2026: indistinguibles y en tiempo real

Los investigadores avanzan el futuro de los deepfakes Síntesis en tiempo reales capaz de producir vídeos que se asemejan a los matices de la apariencia humana, lo que facilita evadir los sistemas de detección. La frontera se está alejando del realismo visual estático y hacia la coherencia temporal y de comportamiento: modelos que generan contenido en tiempo real o casi en tiempo real en lugar de clips pre-renderizados.

El modelado de identidad está convergiendo en sistemas unificados que capturan no sólo la apariencia de una persona, sino también cómo se mueve, suena y habla en diferentes entornos. El resultado cambia de «esto se parece a la persona X» a «con el tiempo, se comporta como la persona X».

A medida que estas capacidades maduren, La brecha de percepción entre los medios humanos sintéticos y reales seguirá reduciéndose. Las líneas de defensa significativas estarán alejadas del juicio humano. En cambio, dependerá de la protección a nivel de infraestructura. Estos incluyen fuentes seguras, como medios firmados criptográficamente, y herramientas de contenido impulsadas por IA que utilizan estándares abiertos, como los propuestos por Content Provenance and Authenticity Alliance.

«Ya no basta con mirar más de cerca los píxeles»”, concluyó el perito forense.





Puedes consultar la fuente de este artículo aquí

Compartir esta noticia en: