La IA dispara la desinformación sobre la guerra en Irán e invita a dudar de todo
Explosiones deborando edificios enteros, ciudades reducidas a cenizas y soldados llorando. En un contexto bélico, tales escenas son verosímiles. Sin embargo, eso no significa que sean verdaderas.
[–>[–>[–>La guerra en Irán entra en su tercera semana marcada por el torrente de desinformación generada con inteligencia artificial (IA) que inunda las redes sociales, fuente principal de noticias para una parte importante de la población, un alud de bulos cada vez más creíbles que contribuyen a sembrar el caos y a dificultar la comprensión del conflicto.
[–> [–>[–>Una investigación de The New York Times publicada el pasado fin de semana ha identificado un total de 110 vídeos creados con IA generativa que muestran desde el bombardeo de rascacielos del golfo Pérsico y mezquitas en Jerusalén hasta buques lanzando misiles, entierros masivos o soldados siendo capturados por el enemigo. La mayoría de ellos van acompañados de textos que, aparentemente, dan legitimidad a las imágenes.
[–>[–>[–>
Esos contenidos falsos acumulan millones de visualizaciones en plataformas como X, TikTok, Instagram y Facebook. Además, también circulan de forma más opaca y menos cuantificable para los investigadores en aplicaciones de mensajería como WhatsApp o Telegram.
[–>[–>[–>[–>[–>[–>Muchos de esos vídeos están siendo utilizados para amplificar narrativas favorables a Irán, según un reciente análisis de la firma de inteligencia digital Cyabra. Trump, que ha recurrido habitualmente a la IA para humillar a enemigos y rivales políticos, ha denunciado la nueva propaganda sintética iraní. «Es un país que se sustenta en la desinformación, y ahora están utilizando la desinformación, además de la IA. Y eso es una situación terrible (…) Han mostrado todo tipo de cosas que supuestamente han ocurrido en las últimas dos semanas y que nunca sucedieron», ha criticado el presidente estadounidense.
[–>[–>[–>
Esos bulos sintéticos se añaden a los ya habituales, que van desde la publicación de mentiras como que el primer ministro israelí, Binyamín Netanyahu, ha sido asesinado hasta la compartición de vídeos reales antiguos y desconextualizados que se venden como actuales y con un relato distorsionado en favor de los usuarios que lo emiten.
[–>[–>
[–>La mentira como negocio
[–>[–>[–>
La última generación de herramientas de IA permite a los usuarios generar todo tipo de contenido falso pero hiperrealista con un coste mínimo o nulo. Rebajar la barrera de entrada a la creación de bulos audiovisuales da alas a la difusión de propaganda por motivos nacionalistas o ideológicos, pero también por motivos económicos. Y es que programas de monetización como los de X, que pagan a los usuarios cuyos contenidos generan más reacciones, incentivan el convertir la mentira en un negocio cada vez más lucrativo.
[–>[–>[–>
La semana pasada, la plataforma controlada por el magnate Elon Musk anunció que suspenderá durante 90 días los ingresos de aquellos creadores que publiquen vídeos falsos sobre la guerra sin avisar de que fueron generados con IA. Aun así, expertos en desinformación han señalado a AFP que esa advertencia no habría servido como disuasión para frenar la avalancha de imágenes sintéticas sobre el conflicto, que ya han alcanzado un volumen de circulación mucho peor al visto tras la guerra desatada por Rusia con su invasión de Ucrania.
[–>[–>[–>Grok, el modelo de IA generativa propiedad de Elon Musk, permite desnudar a los protagonistas de imágenes propias y ajenas. / Lionel Bonaventure / AFP
[–>[–>[–>
The New York Times señala que la IA también está siendo utilizada con imágenes reales para exagerarlas y tratar así de monetizar mejor su impacto. En esencia, han creado «una realidad alternativa más adecuada para las redes sociales, donde este tipo de imágenes exageradas tienen más posibilidades de encontrar una audiencia». «El contenido generado por IA es ya una característica estructural de este conflicto. Y también lo es la duda que genera sobre lo que es real», ha explicado Mahsa Alimardani, directora adjunta de la oenegé Witness y experta en el impacto de la tecnología en los derechos humanos.
[–>[–>[–>
«El contenido generado por IA es ya una característica estructural de este conflicto. Y también lo es la duda que genera sobre lo que es real»
[–>[–>[–>
Dudar de todo
[–>[–>[–>
El impacto de la IA en la guerra va mucho más allá de amplificar bulos. Y es que, en un mundo en el que la tecnología está diluyendo la capacidad de separar entre realidad y mentira, también puede instrumentalizarse esa duda constante para negar la verdad. Ese fenómeno se conoce como «dividendo de los mentirosos» y permite a políticos deslegitimar la información real para eludir la responsabilidad de sus actos.
[–>[–>[–>
«Imagina un vídeo del primer ministro de Israel en una conversación privada revelando un plan para llevar a cabo una serie de asesinatos políticos en Teherán (…) Ahora imagina que estas grabaciones podrían ser falsificadas utilizando herramientas disponibles para casi cualquier persona con una computadora portátil y acceso a internet, y que las falsificaciones resultantes son tan convincentes que son imposibles de distinguir de la realidad», vaticinaron en 2019 los juristas Danielle Citron y Robert Chesney, padres de ese término. El ejemplo que pusieron hace siete años es tremendamente real.
[–>[–>[–>[–>[–>[–>
Ese peligro también se está viendo amplificado por chatbots de IA generativa como ChatGPT, Gemini o Grok, este último también propiedad de Musk. A pesar que generan respuestas plausibles pero falsas (lo que se conoce como alucinación), cada vez más usuarios utilizan esos asistentes como si de una fuente de información fiable se tratase. Incluso les piden si lo que están viendo o cierto o no. Esa confianza ciega está contribuyendo a deformar la realidad. Y es que, en varias ocasiones, Grok ha negado la existencia de imágenes reales al tildarlas de «deepfake generado con IA». Expertos en desinformación como Shayan Sardarizadeh, de BBC Verify, no se cansan de repetirlo: «Los chatbots con IA no son herramientas de verificación de noticias».
[–>[–>[–>
Suscríbete para seguir leyendo
Puedes consultar la fuente de este artículo aquí