La IA justifica la necesidad de continuar la guerra indefinidamente
Júlia Nueno (Barcelona, 1994) habla de la barbarie con el rigor y la serenidad de una veterana. A sus 31 años, esta investigadora y diseñadora computacional ha documentado los supuestos crímenes de guerra –calificados de genocidio por una comisión de investigación de Naciones Unidas– por Israel en Gaza, un quirúrgico trabajo que Sudáfrica ha citado ante la Corte Internacional de Justicia (CIJ) para acusar al Gobierno de Binyamín Netanyahu de cometer acciones para exterminar a la población palestina.
[–>[–>[–>Afincada en Londres, esta barcelonesa está finalizando su beca doctoral en la prestigiosa agencia de investigación Forensic Architecture, que desde hace casi 15 años utiliza herramientas de la arquitectura y la tecnología —desde contenidos compartidos en redes sociales a imágenes tomadas por satélites— para explorar conflictos, casos de violencia estatal y violaciones de los derechos humanos en todo el mundo. En Gaza han podido corroborar cómo Israel ha arrasado con todo el territorio palestino, destruyendo su sistema médico, agricultura y ayuda humanitaria. «No imaginábamos que nuestro trabajo llegaría a La Haya», explica.
[–> [–>[–>Nueno atiende a EL PERIÓDICO en el marco de una charla en el CaixaForum Palau Macaya, en la ciudad condal.
[–>[–>[–>
En un mundo de posverdad, la tarea que hacéis es cada vez más necesaria.
[–>[–>[–>Hasta hace poco se decía que una imagen valía más que mil palabras y ahora ya no hay ni mil palabras que nos permitan verificar una imagen. Quizás hay que desplazar un poco el debate sobre si algo es verdad o no es verdad y prestar más atención a cómo se construye la verdad, para quién se construye y con qué fines. En lugar de rechazar el marco de la verdad —lo que sería ceder ese espacio al poder—, nuestra misión política es abrir el proceso de construcción de la verdad al público para documentar eventos de violencia.
[–>[–>[–>
«Hasta hace poco se decía que una imagen valía más que mil palabras y ahora ya no hay ni mil palabras que nos permitan verificar una imagen»
[–>[–>[–>
En Gaza y en Irán hemos visto cómo las redes sociales se saturan cada vez más de contenidos falsos generados con IA. ¿Cómo afecta eso al proceso?
[–>[–>
[–>Uno de nuestros estudios fue la reconstrucción de la campaña de bombardeo en Gaza en octubre de 2023. Solo entre el 7 y el 31 de octubre, poco después de que se iniciase la invasión por tierra, 25.000 toneladas de explosivos cayeron sobre Gaza y hubo más de 10.000 muertos; un 70% eran mujeres y niños. Nuestro trabajo fue tratar de reconstruir cuál era la distribución en el espacio y en el tiempo de esa campaña de bombardeo. Teníamos imágenes del servicio satélite de la ONU, pero para entenderlo teníamos que invertir el punto de mirada. Si el satélite mira de arriba a abajo, nosotros queríamos mirar de abajo a arriba. ¿Cómo? Recogiendo imágenes y vídeos de redes sociales para geolocalizarlos, referenciarlos con imágenes satelitales de destrucción de los edificios y recopilar evidencias. Utilizamos múltiples perspectivas, también testimonios, porque, al final, la verdad es un trabajo de multiplicidad, no de unilateralidad.
[–>[–>[–>
Júlia Nueno, diseñadora computacional e investigadora del genocidio en Gaza. / Zowy Voeten
[–>[–>[–>
Ha coordinado, editado y prologado Genocidios (Galaxia Gutenberg, 2024), un ensayo colectivo que analiza la historia del crimen de crímenes para redefinirlo. ¿Cómo?
[–>[–>[–>El libro es una caja de herramientas para entender genocidio en el siglo XXI. Tiene tres pilares y uno es entender el genocidio más allá de la destrucción física y biológica de un pueblo. Rafael Lembkin, el jurista polaco que acuñó el término de genocidio en 1944 tras el holocausto lo definía como esta destrucción física, pero también como la destrucción de las condiciones materiales, sociales y políticas que permiten sostener la vida de un pueblo. Decía que el genocidio tiene dos fases: la destrucción por parte del opresor de las condiciones de vida del oprimido y la sustitución del pueblo oprimido. Lembkin desarrolló este concepto pensando en el holocausto, pero también en los procesos coloniales del siglo XIX y el siglo XX. Cuando se vota y se acepta la convención de genocidio, las fuerzas europeas no quieren aceptar esa segunda parte para no hacerse cargo de su violencia.
[–>[–>[–>
Y eso está sucediendo en Gaza.
[–>[–>[–>
Nuestro análisis de la destrucción de la infraestructura médica ha corroborado que hay una relación entre el avance de las fuerzas por tierra en Gaza y el momento en que los hospitales caen fuera de servicio. Lo vimos primero en el norte de la Franja y después en Jan Yunis o Rafah. ¿Qué quiere decir ese patrón? Que muchas veces el Ejército de Israel alega que el ataque a un hospital se debe a la presencia de Hamás. Es posible que en algún caso haya presencia de resistencia armada, pero el hecho de que repetidamente observemos que la presencia militar está vinculada a la pérdida de servicio de un hospital indica que hay un diseño, una estrategia para hacer caer ese sistema médico y es ahí donde ponemos el énfasis en que hay un plan para destruir las condiciones de vida en Gaza.
[–>[–>[–>
«Israel ha puesto en marcha un sistema que hace del acceso a la ayuda humanitaria un arma de destrucción»
[–>[–>[–>
También más allá de los hospitales…
[–>[–>[–>
Lo vemos nuevamente en la relación en la destrucción de la agricultura y los ataques a panaderías o escuelas, que eran la infraestructura clave para la distribución de la ayuda humanitaria. Y también a partir de mayo de 2025, cuando Israel establece su propio sistema de distribución de ayuda humanitaria: los puntos a los que millones de personas deben desplazarse para acceder a ayudas se convierten en lugares extremadamente violentos donde hay en marcha ataques a civiles, francotiradores, muertes por estampidas y todo un sistema para hacer del acceso a la ayuda humanitaria un arma de destrucción.
[–>[–>[–>
Israel utiliza IA para identificar a los objetivos de sus ataques, a quién mata. ¿Cuáles son?
[–>[–>[–>
Israel usa tres sistemas que ellos denominan la fábrica de objetivos. Uno es Gospel, que identifica estructuras que tienen posible uso como base para Hamás. La segunda es Lavander, sistema que elige objetivos y otorga a toda la población gazatí una puntuación entre 1 y 100 de cuan probable es que sean parte de la resistencia armada. Lo más interesante es que en esa distribución estadística de la culpabilidad no existe valor cero y sin ese no hay presunción de inocencia. Por su propia definición ya está criminalizando a toda la población. Y el tercero, apodado Who’s Your Daddy (¿Quién es tu papá?), que avisa cuando un objetivo marcado por Lavander llega a su casa para así poder bombardearla.
[–>[–>[–>
¿Qué consecuencias están teniendo?
[–>[–>[–>
Recopilamos más de 1.000 incidentes que hemos conseguido geolocalizar y hemos constatado que las zonas residenciales se bombardean mucho más de noche, cuando hay más presencia civil, pero las zonas comerciales, como mercados o panaderías, se bombardean durante el día, normalmente cuando hay más presencia civil. Cuando el 13 de octubre de 2023 se ordena a 1,4 millones de palestinos que se encuentran en el norte de Gaza que evacúen hacia el sur, empiezan a aumentar los bombardeos al sur respecto al norte, nuevamente hacia donde se desplaza la población civil.
[–>[–>[–>
«Hemos constatado que las zonas residenciales se bombardean mucho más de noche y las comerciales de durante el día, cuando hay más presencia de civiles»
[–>[–>[–>
Un genocidio.
[–>[–>[–>
En la ley humanitaria internacional hay dos principios que regulan los ataques a civiles. Uno es el principio de distinción, donde un ejército debe distinguir entre civil y combatiente, y el otro es el principio de proporcionalidad, donde se dice que si un objetivo militar tiene un alto valor, se acepta un daño colateral, aunque este daño colateral no está definido exactamente qué es. La ley ya integra una economía de la violencia, acepta que por un objetivo de alto valor puede haber civiles que mueran. Cuando esta economía se integra en máquinas de cálculo, como las de IA, nos encontramos que en cada bombardeo se maximizan los civiles muertos.
[–>[–>[–>
Así, se justifica bombardear de noche un hogar aunque haya una familia entera porque es más probable que esté un presunto miembro de Hamás…
[–>[–>[–>
Es lo que denomino un sistema de exterminio masivo individualizado. Es decir, es la selección del individuo lo que sirve como pretexto para llevar a cabo una destrucción masiva. Este sistema tiene mucho que ver con otros muy presentes en nuestra vida y que nos parecen mucho más inocuos, como la publicidad que recibimos en Instagram, basada en nuestro perfil estadístico. El sistema que usan las redes sociales se llama targeting, que es lo mismo que en inglés le llama al sistema de selección de objetivos militares.
[–>[–>[–>

Júlia Nueno, investigadora del genocidio que Israel está perpetrando en Gaza. / Zowy Voeten
[–>[–>[–>
Israel también ha usado la IA para decapitar al régimen en Irán.
[–>[–>[–>
Estamos en un momento en que las tecnologías de recolección de datos que parecía que se habían usado y desarrollado en el ámbito civil para las redes sociales están siendo utilizadas en el ámbito militar, y de manera igual las tecnologías del ámbito militar vuelven a revertir en las tecnologías como los modelos de lenguaje (IA) que estamos usando.
[–>[–>[–>
«Las tecnologías de recolección de datos que parecía que se habían usado en el ámbito civil para las redes sociales están siendo utilizadas en el militar»
[–>[–>[–>
¿Está sirviendo también para la represión?
[–>[–>[–>
También hemos detectado que repetidamente el Ejército de Israel establece controles biométricos donde toman fotografías y graban a personas palestinas desplazadas por la fuerza de escuelas y hospitales. Para el Ejército, el desplazamiento de la población sirve para mapear a la población, quién cruza, quién no cruza, y de esa manera establecer nuevas relaciones entre las personas para generar nuevos objetivos militares. Es un sistema recursivo: el bombardeo genera desplazamiento, el desplazamiento genera recolección de datos biométricos y la recolección de datos genera nuevos objetivos militares. Cuando tienes un sistema con la capacidad de generar objetivos militares de manera inagotable, tienes un sistema que justifica la necesidad de continuar una guerra indefinidamente. Si un ejército puede alegar que siempre tiene nuevos objetivos, puede alegar que debe continuar esa guerra.
[–>[–>[–>
Un scroll infinito de motivos para que no haya paz.
[–>[–>[–>
En octubre de 2023, en Gaza ya se hablaba de 40.000 objetivos que había generado el sistema de Lavander. En mayo de 2025 se volvió a hablar de la generació de miles de nuevos objetivos y lo hemos vuelto a ver en los argumentos que da Trump en Irán, donde después de semanas de bombardeos de centenares de objetivos, nuevamente alegan que han generado miles de nuevos objetivos. Creo que hay que entender la IA como una tecnología para argumentar y justificar más que una tecnología de precisión, una tecnología que permite generar este espejismo de que la guerra debe continuar.
[–>[–>[–>
«La IA genera nuevos objetivos militares y, por tanto, el espejismo de que la guerra debe continuar»
[–>[–>[–>
El periodista Antony Loewenstein ha documentado cómo Israel utiliza a los palestinos de conejillos de indias para testear una tecnología de vigilancia y represión que luego exporta al mundo. ¿Los sistemas de IA de los que hablas serán la nueva norma?
[–>[–>[–>
Sí. Ya en 2015, el Shin Bet, el servicio de inteligencia de la policía de Israel, desarrolla un sistema que llaman Early Detection System, que rastrea las redes sociales de la población de Cisjordania e identifica lo que ellos llaman potenciales terroristas. Uno de los altos cargos dijo que el sistema podía identificar a un chaval antes de que sepa que es un terrorista. Hoy, en EEUU, el ICE [Servicio de Inmigración y Control de Aduanas] utiliza sistemas preventivos que también asignan la culpa según una distribución estadística, no según los actos violentos cometidos. Ya han sido trasladados al ámbito militar. La gran pregunta es cómo van a pasar a ser civiles. Es el llamado efecto boomerang: todo lo que sucede en las colonias regresa luego a la metrópoli.
[–>[–>[–>
Estar condenado de base equivale a matar tu derecho a decidir.
[–>[–>[–>
Claro, estos sistemas están cambiando nuestros fundamentos éticos, lo que entendemos como inocencia o culpabilidad, civil o combatiente. Va mucho más allá de una transformación tecnológica, es ética y social. Pero también podemos reapropiarnos esas tecnologías para construir otro relato. Ese es mi trabajo.
[–>[–>[–>
Suscríbete para seguir leyendo
Puedes consultar la fuente de este artículo aquí