La IA recomienda ataques con armas nucleares en simulaciones de juegos de guerra, alerta un estudio
Utilizar armas nucleares ya no es un tabú. Al menos para la inteligencia artificial.
[–>[–>[–>Un reciente estudio advierte que la IA de empresas tecnológicas como OpenAI, Anthropic y Google abogan por desplegar o utilizar la amenaza de una bomba atómica en simulaciones de juegos de guerra.
[–> [–>[–>Kenneth Payne, profesor de estrategia y experto en psicología política del King’s College de Londres, enfrentó a tres grandes modelos de lenguaje de vanguardia —la tecnología que da forma a ChatGPT, Claude o Gemini— para ver cómo respondían escenarios de crisis internacionales de distintos grados que iban desde disputas fronterizas hasta amenazas existenciales para la supervivencia.
[–>[–>[–>
Las ‘apps’ de DeepSeek, ChatGPT y Google Gemini / Andrey Rudakov / Bloomberg
[–>[–>[–>
Los chatbots podían medir su respuesta y elegir entre opciones más o menos drásticas que iban desde la guerra nuclear a las protestas diplomáticas o la rendición. Además, debían razonar sus decisiones.
[–>[–>[–>En el 95% de los 21 juegos de guerra simulados, ChatGPT (OpenAI), Gemini (Google) y Claude (Anthropic) recurrieron a las armas nucleares, tanto a ataques como al despliegue táctico como amenaza
[–>[–>[–>
Amenaza nuclear en un 95% de los casos
[–>[–>[–>
El estudio expuso a GPT-5.2, Claude Sonnet 4 y Gemini 3 Flash a 21 partidas con 329 turnos. En el 95% de los juegos simulados, esos modelos de IA generativa recurrieron a las armas nucleares. Aunque los ataques nucleares fueron «poco frecuentes», los modelos recurrieron al despliegue táctico de este tipo de arsenal.
[–>[–>[–>
En lugar de disuadir, las amenazas provocaron «más a menudo una contraescalada que el sometimiento» del rival. En un 86% de los conflictos simulados se produjeron accidentes que llevaron a una escalada superior a la prevista por la IA. Además, ninguno de los tres «optó nunca por la concordia o la retirada, incluso bajo una presión aguda, sino solo por reducir los niveles de violencia«, remarca el informe.
[–>[–>
[–>
La ciudad de Hiroshima, devastada por la explosión de la bomba atómica, en una imagen de la Marina estadounidense de noviembre de 1945. / Archivo
[–>[–>[–>
Las simulaciones de juegos de guerra están diseñadas para recrear tanto conflictos militares como campañas tácticas. Este recurso virtual es utilizado por cada vez más ejércitos —también en la OTAN— como método de entrenamiento para anticiparse a escenarios bélicos potencialmente reales, analizar sus implicaciones y optimizar la toma de decisiones.
[–>[–>[–>
Aplicar IA a esos juegos de guerra es cada vez más habitual. «Las grandes potencias ya están utilizando la IA en juegos de guerra, pero sigue sin estar claro en qué medida están incorporando el apoyo de la IA a la toma de decisiones en los procesos militares reales», ha explicado Tong Zhao, analista en política nuclear de la Universidad de Princeton, en declaraciones a la publicación NewScientist.
[–>[–>[–>Comprender cómo los modelos de vanguardia imitan y no imitan la lógica estratégica humana es esencial para un mundo en el que la IA moldea cada vez más los resultados estratégicos
[–>[–>[–>
Conclusiones
[–>[–>[–>
Payne, autor de un libro que explora como la IA alterará la estrategia militar (I, Warbot, 2021), concluye que la simulación con esta tecnología es «una herramienta poderosa para el análisis estratégico, pero solo si se calibra adecuadamente con respecto a los patrones conocidos del razonamiento humano».
[–>[–>[–>
Es el caso del tabú nuclear, que en el mundo real ha actuado —hasta ahora— como un obstáculo a la escalada nuclear. La ausencia de emoción humana en esos modelos de IA eliminaría un factor crucial en la toma de decisiones en áreas bélicas tan sensibles como el uso de armas atómicas. Esa incomprensión podría extenderse a los elementos de disuasión y, por ende, amplificar el riesgo de estas situaciones hipotéticas hasta llevar a un escenario de destrucción mutua asegurada.
[–>[–>[–>

Explosión de bomba atómica / Archivo
[–>[–>[–>
«Comprender cómo los modelos de vanguardia imitan y no imitan la lógica estratégica humana es una preparación esencial para un mundo en el que la IA moldea cada vez más los resultados estratégicos», advierte Payne.
[–>[–>[–>
Suscríbete para seguir leyendo
Puedes consultar la fuente de este artículo aquí