así es cómo Estados Unidos utiliza la IA en su guerra contra Irán
En abril de 2018, hasta 4.000 empleados de Google firmaron una dura carta pública en la que acusaban a la directiva de ignorar su «responsabilidad moral y ética». La rebelión laboral respondía al millonario acuerdo con el que el gigante tecnológico ponía su inteligencia artificial al servicio del Pentágono. La presión fue tal que la compañía optó por no renovar su contrato con el Departamento de Defensa de Estados Unidos, pero su retirada no fue el fin del problema.
[–>[–>[–>Ocho años después, el uso de la IA para la guerra vuelve a cobrar protagonismo de la mano de Donald Trump. Su Gobierno está entusiasmado con los «excelentes resultados» que esta tecnología está teniendo en su guerra contra Irán, un éxito que apunta a acelerar su integración con el Ejército. «No me sorprendería que se la considerara la primera guerra de la IA de EEUU«, ha explicado a The New York Times el ex teniente general Jack Shanahan, responsable de esa adopción tecnológica durante la presidencia de Joe Biden.
[–> [–>[–>«No me sorprendería que se considerara Irán como la primera guerra de la IA de EEUU»
[–>[–>[–>
El control militar de la IA también ha abierto una crisis. A finales de febrero, la Administración de Trump vetó a Anthropic, la empresa que el Pentágono utiliza para procesar su información clasificada, por negarse a que sus sistemas sean utilizados para la creación de armas autónomas y para vigilancia masiva de estadounidenses.
[–>[–>[–>
A pesar de designarla un «riesgo de la cadena de suministro», el Ejército sigue utilizando sus servicios contra Teherán. El Departamento de Defensa estadounidense recurre a Claude, el modelo de IA generativa de la start-up, para la recopilación y el análisis de información, apoyo logístico y administrativo y asesoramiento en la toma de decisiones en el campo de batalla, según ha informado The Washington Post. Los detalles de esas aplicaciones son, por ahora, un secreto.
[–>[–>[–>A la izquierda, el presidente de Estados Unidos, Donald Trump, y, a la derecha, el jefe del Pentágono, Pete Hegseth. / Europa Press/Contacto/Aaron Schwartz – Pool via CN
[–>[–>[–>
¿Qué es el Proyecto Maven?
[–>[–>[–>
Aunque es denostada por la Casa Blanca, la IA de Anthropic está integrada desde 2024 en una de las principales herramientas tecnológicas de EEUU en el actual conflicto en Oriente Medio. Se trata del llamado Proyecto Maven (Project Maven, en inglés). Google renunció a construirlo en 2018, pero su lugar lo ocupó Palantir, la influyente y controvertida empresa conocida por diseñar el programa informático que la Administración Trump utiliza para localizar, detener y deportar a personas migrantes.
[–>[–>[–>
Maven es una iniciativa de guerra mediada por algoritmos para separar el grano de la paja y convertir el ruido en inteligencia militar. Su principal baza es un software capaz de analizar datos extraídos de internet, llamadas pinchadas, drones, sensores, cámaras de vigilancia o satélites, encontrar patrones e identificar automáticamente potenciales «sistemas enemigos», según documentos internos revisados por Wired. Además, también ayuda a visualizar y «seleccionar» posibles objetivos de bombardeos terrestres o aéreos e incluso proponer qué tipo de munición asignar a cada ataque. The Washington Post informa que esa herramienta algorítmica ya habría sugerido cientos de objetivos militares.
[–>[–>
[–>«Nuestros adversarios y enemigos están siendo testigos de una capacidad de lucha que ellos no poseen y que les resultará muy difícil adquirir», ha alardeado Alex Karp, director ejecutivo de Palantir.
[–>[–>[–>

El edificio del Pentágono. / AP
[–>[–>[–>
El Pentágono ha asegurado que todas las decisiones que toman sobre la guerra son humanas. Aun siendo ese el caso, desde Hard Fork, el pódcast sobre tecnología de The New York Times, apuntan a que usar la IA como asesora en esas decisiones ya supone una influencia no menospreciable. Por ejemplo, la inteligencia aportada por los chatbots integrados en la cadena de operaciones del Ejército pueden dar más confianza a los altos mandos militares para que decidan ejecutar un bombardeo.
[–>[–>[–>¿Armas sin control humano?
[–>[–>[–>
De Ucrania a Gaza, pasando ahora por Irán, el uso bélico de la IA es cada vez más frecuente, pero no por eso menos controvertido. Sus valedores argumentan que los sistemas algorítmicos son más precisos que el ojo humano y que su integración en el campo militar contribuye a reducir las muertes de civiles.
[–>[–>[–>
No obstante, ese argumento es disputado por múltiples expertos. «No hay pruebas de que la IA reduzca el número de víctimas civiles o las decisiones erróneas a la hora de seleccionar objetivos, y puede que ocurra todo lo contrario», ha advertido Craig Jones, geógrafo político de la Universidad de Newcastle e investigador de la selección de objetivos militares, en declaraciones a la revista Nature.
[–>[–>[–>
«No hay pruebas de que la IA reduzca el número de víctimas civiles o las decisiones erróneas a la hora de seleccionar objetivos, y puede que ocurra todo lo contrario»
[–>[–>[–>
Aún más polémico es el uso de la IA para armas autónomas, capaces de identificar y matar a objetivos sin supervisión humana. El problema se debe principalmente a la opacidad y a los sesgos de estos sistemas. Ambos hacen que puedan cometer errores —disparar a civiles— y que sea casi imposible determinar qué ha generado ese fallo. Además, por ahora no existe ninguna ley internacional que establezca normas para este tipo de armas. La oposición de países con programas de guerra algorítmica activos como EEUU, Israel y China a su regulación hace que un acuerdo lícito sobre el uso bélico de la IA esté aún lejos.
[–>[–>[–>
Suscríbete para seguir leyendo
Puedes consultar la fuente de este artículo aquí