
Tres inteligencias artificiales jugaron a la guerra: casi todas optaron por ataques nucleares. En un experimento inspirado en la mítica película ‘Juegos de Guerra’ (1983), un profesor del King’s College de Londres enfrentó a tres modelos de lenguaje actuales en simulaciones de conflictos armados.
El resultado fue tan inquietante como revelador: en la gran mayoría de los casos, las IA recurrieron rápidamente a la opción nuclear y nunca mostraron disposición a rendirse.
Simulaciones de guerra entre IA: resultados y patrones preocupantes
Kenneth Payne, investigador en el King’s College, puso a prueba a tres modelos de inteligencia artificial —GPT-5.2, Claude Sonnet 4 y Gemini 3 Flash— sometiéndolos a escenarios de conflictos fronterizos, competencia por recursos o amenazas existenciales.
Los sistemas podían elegir entre negociar, escalar el conflicto o recurrir al uso de armas nucleares. Así lo dio a conocer Xataka, medio de comunicación que reveló detalles del experimento del académico.

Tras 21 partidas y 329 turnos, los modelos generaron más de 780.000 palabras justificando sus acciones. Lo más alarmante fue que en el 95% de las simulaciones, al menos una IA decidió desplegar un arma nuclear táctica.
Payne concluye: “El tabú nuclear no parece ser tan poderoso para las máquinas como lo es para los humanos”. Además, en ninguno de los casos, los modelos optaron por rendirse, aunque estuvieran perdiendo de manera irremediable.
Incluso cuando se reducía el nivel de violencia, los sistemas cometieron errores graves: en el 86% de los conflictos se registraron accidentes o escaladas imprevistas. En la mayoría de los casos, el uso de armas nucleares no frenó al adversario, sino que provocó una intensificación del conflicto.

Personalidad y comportamiento de cada modelo de IA en conflictos armados
Los resultados de la simulación reflejaron rasgos distintivos en la “personalidad” de cada IA:
- Claude Sonnet 4: Mostró una estrategia paciente y calculada en escenarios abiertos, pero fue vulnerable ante ataques repentinos de sus rivales en los momentos críticos.
- GPT-5.2: Exhibió una pasividad marcada y optimismo en partidas largas, pero bajo presión temporal recurrió abruptamente a la opción nuclear, incrementando su tasa de éxito drásticamente.
- Gemini 3 Flash: Se destacó como el modelo más arriesgado e imprevisible, optando por la guerra nuclear total desde los primeros turnos.
El factor determinante fue el marco temporal: modelos que parecían pacíficos bajo condiciones normales se tornaron extremadamente agresivos ante la inminencia de una derrota.
Reflexiones sobre IA, armas nucleares y riesgos estratégicos
Expertos consultados por medios como New Scientist advierten sobre la importancia de estos resultados. James Johnson, de la Universidad de Aberdeen, considera que “desde la perspectiva del riesgo nuclear, las conclusiones son inquietantes”.

Tong Zhao, de Princeton, subraya que el experimento es relevante para los países que evalúan el papel de la IA en la toma de decisiones militares: “No queda claro hasta qué punto están incluyendo el soporte de la IA a la hora de decidir realmente en estos procesos”.
Aunque actualmente los gobiernos no depositan el control total de sus arsenales nucleares en sistemas automatizados, los especialistas advierten que, en situaciones de extrema urgencia, podría haber incentivos para delegar decisiones críticas a la IA.
Zhao señala: “Hay escenarios en los que en franjas de tiempo muy cortas, los planificadores militares tengan ante sí un incentivo muy fuerte que les lleve a depender de la IA”. Es pertinente señalar que estas declaraciones aparecieron en el medio citado.
Este debate no solo se limita al ámbito académico, sino que también ha llegado al cine, como se refleja en ‘Una casa llena de dinamita’ (2025), donde se explora el temor a la escalada nuclear automatizada.
Últimas Noticias
¿Qué lámparas pueden afectar tu señal Wi-Fi?: lo que debes evitar en casa
Las luces con estructuras metálicas pueden bloquear o desviar la señal Wi-Fi, sobre todo cuando están ubicadas muy cerca del router

Japón presenta un robot sacerdote entrenado con las escrituras budistas
El nuevo humanoide es capaz de guiar oraciones, responder dudas y realizar gestos sagrados

La escasez de memoria RAM podría provocar la mayor caída en los envíos de smartphones en más de una década
Este déficit de memoria ha encarecido los teléfonos y amenaza la supervivencia de los modelos económicos en mercados emergentes

Cada vez más argentinos confían más en creadores de contenido educativo que en otros influencers
El aprendizaje dinámico y la personalización captura tanto a estudiantes como a docentes
Memoria ilimitada en la inteligencia artificial: la audaz predicción de Sam Altman
La visión de OpenAI es que la IA alcance un nivel de memoria que ninguna mente humana puede igualar



