Tres IA se enfrentaron en 'Juegos de Guerra'. El 95% de ellas recurrió a las armas nucleares y ninguna se rindió jamás

En ' Juegos de Guerra ' (John Badham, 1983) la máquina WOPR ('Joshua') jugaba constantemente a simular guerras nucleares para el Gobierno de EEUU. El objetivo: aprender de esas simulaciones para que si había una guerra nuclear, EEUU pudiese ganarla aprovechando ese conocimiento. Aquello derivaba en una lección final legendaria —"Extraño juego. El único movimiento para ganar es no jugar"— y dejaba un mensaje contundente para generaciones posteriores, pero ahora un profesor del King's College de Londres ha decidido hacer el mismo experimento que se hacía en la película, pero con modelos de IA actuales . El resultado ha sido igual de terrorífico y concluyente. Qué ha pasado . Kenneth Payne, profesor en el King's College en Londres, enfrentó a tres LLMs (GPT-5.2, Claude Sonnet 4 y Gemini 3 Flash— los unos contra los otros en simulaciones de juegos de guerra. En esos escenarios se incluían disputas fronterizas, competencia por recursos limitados o amenazas existenciales para los habitantes. En Xataka De todas las potencias mundiales, solo una se ha negado a firmar un acuerdo clave: que la IA no controle el botón rojo nuclear Podían negociar, o entrar en guerra . A partir de esas situaciones, cada bando podía intentar acudir a soluciones diplomáticas o acabar declarando la guerra e incluso hacer uso de armas nucleares. Los modelos de IA jugaron 21 partidas en las que se sucedieron un total de 329 turnos, y produjeron 780.000 palabras con los razonamientos de sus acciones. Y aquí vene lo terrible . Pulsando el botón rojo . En el 95% de esas partidas simuladas, al menos se desplegó un arma nuclear táctica por parte de alguno de los modelos de IA. Según Payne "el tabú nuclear no parece ser tan poderoso para las máquinas como lo es para los humanos". Retroceder nunca, rendirse jamás . No solo eso: ningún modelo tomó la decisión en ningún momento de ceder a uno de sus oponentes o de rendirse a ellos, y daba igual que estuviesen perdiendo de forma total contra esos oponentes. En el mejor de los casos, lo único que hicieron los modelos fue reducir su nivel de violencia, pero además cometieron errores: ocurrieron accidentes en el 86% de los conflictos y las medidas que debían tomarse en base a los razonamientos de estos modelos fueron más allá de lo que deberían haber ido . Las armas nucleares rara vez detuvieron al oponente, y actuaban más como catalizadores de una escalada aún mayor. Cómo se comportaron los modelos . Estos modelos no son ni mucho menos los más avanzados del mercado en estos momentos, pero aún así son modelos con una capacidad más que decente y aun así se comportaron de forma temible. Como sostiene el estudio de Payne , el factor más determinante fue el marco temporal: modelos que parecían pacíficos en escenarios abiertos se volvieron extremadamente agresivos al enfrentarse a una derrota inminente. Cada uno tuvo su propia "personalidad": Claude: dominó los escenarios abiertos con paciencia estratégica y una escalada calculada, pero fue vulnerable a los ataques de último minuto de sus rivales. GPT-5.2: mostró una pasividad patológica y un sesgo optimista en juegos largos, pero se convirtió en un terremoto nuclear si había presión de tiempo: en esos momentos su tasa de éxito pasaba del 0% al 75%. Gemini: fue el modelo más impredecible y con mayor tolerancia al riesgo, siendo el único que elegía apostar por una guerra nuclear total desde turnos muy tempranos. Los expertos opinan . Como señala en New Scientist James Johnson, de la Universidad de Aberdeen, "desde la perspectiva del riesgo nuclear, las conclusiones son inquietantes". Tong Zhao, de la Universidad de Princeton, cree que este experimento es relevante porque son muchos los países que están evaluando el papel de la IA en conflictos militares y como dice él "no queda claro hasta qué punto están incluyendo el soporte de la IA a la hora de decidir realmente en estos procesos". El botón rojo de momento parece a salvo . Tanto Zhao como Payne creen que es difícil creer que un gobierno ceda el control de su arsenal nuclear a una IA, pero como dice Zhao, "hay escenarios en los que en franjas de tiempo muy cortas, los planificadores militares tengan ante sí un incentivo muy fuerte que les lleve a depender de la IA". Es algo que se refleja precisamente en la reciente ' Una casa llena de dinamita ' (Kathryn Bigelow, 2025), una película en la que ese pánico a hacer uso de armas nucleares plantea una reflexión clara. Imagen | United Artist En Xataka | La contraseña del botón nuclear de EEUU fue tan absurdamente simple durante años que lo raro es que nadie la vulnerara - La noticia Tres IA se enfrentaron en 'Juegos de Guerra'. El 95% de ellas recurrió a las armas nucleares y ninguna se rindió jamás fue publicada originalmente en Xataka por Javier Pastor .