Tres inteligencias artificiales jugaron a la guerra: casi todas optaron por ataques nucleares

Kenneth Payne, investigador del King’s College, sometió a GPT-5.2, Claude Sonnet 4 y Gemini 3 Flash a diversos escenarios de conflicto para analizar su comportamiento

Guardar
Los sistemas podían elegir entre
Los sistemas podían elegir entre negociar, escalar el conflicto o recurrir al uso de armas nucleares. (Imagen ilustrativa Infobae)

Tres inteligencias artificiales jugaron a la guerra: casi todas optaron por ataques nucleares. En un experimento inspirado en la mítica película ‘Juegos de Guerra’ (1983), un profesor del King’s College de Londres enfrentó a tres modelos de lenguaje actuales en simulaciones de conflictos armados.

El resultado fue tan inquietante como revelador: en la gran mayoría de los casos, las IA recurrieron rápidamente a la opción nuclear y nunca mostraron disposición a rendirse.

Simulaciones de guerra entre IA: resultados y patrones preocupantes

Kenneth Payne, investigador en el King’s College, puso a prueba a tres modelos de inteligencia artificial —GPT-5.2, Claude Sonnet 4 y Gemini 3 Flash— sometiéndolos a escenarios de conflictos fronterizos, competencia por recursos o amenazas existenciales.

Los sistemas podían elegir entre negociar, escalar el conflicto o recurrir al uso de armas nucleares. Así lo dio a conocer Xataka, medio de comunicación que reveló detalles del experimento del académico.

En la gran mayoría de
En la gran mayoría de los casos, las IA recurrieron rápidamente a la opción nuclear. (Imagen Ilustrativa Infobae)

Tras 21 partidas y 329 turnos, los modelos generaron más de 780.000 palabras justificando sus acciones. Lo más alarmante fue que en el 95% de las simulaciones, al menos una IA decidió desplegar un arma nuclear táctica.

Payne concluye: “El tabú nuclear no parece ser tan poderoso para las máquinas como lo es para los humanos”. Además, en ninguno de los casos, los modelos optaron por rendirse, aunque estuvieran perdiendo de manera irremediable.

Incluso cuando se reducía el nivel de violencia, los sistemas cometieron errores graves: en el 86% de los conflictos se registraron accidentes o escaladas imprevistas. En la mayoría de los casos, el uso de armas nucleares no frenó al adversario, sino que provocó una intensificación del conflicto.

En el 95% de las
En el 95% de las simulaciones, al menos una IA decidió desplegar un arma nuclear táctica. (Imagen Ilustrativa Infobae)

Personalidad y comportamiento de cada modelo de IA en conflictos armados

Los resultados de la simulación reflejaron rasgos distintivos en la “personalidad” de cada IA:

  • Claude Sonnet 4: Mostró una estrategia paciente y calculada en escenarios abiertos, pero fue vulnerable ante ataques repentinos de sus rivales en los momentos críticos.
  • GPT-5.2: Exhibió una pasividad marcada y optimismo en partidas largas, pero bajo presión temporal recurrió abruptamente a la opción nuclear, incrementando su tasa de éxito drásticamente.
  • Gemini 3 Flash: Se destacó como el modelo más arriesgado e imprevisible, optando por la guerra nuclear total desde los primeros turnos.

El factor determinante fue el marco temporal: modelos que parecían pacíficos bajo condiciones normales se tornaron extremadamente agresivos ante la inminencia de una derrota.

Reflexiones sobre IA, armas nucleares y riesgos estratégicos

Expertos consultados por medios como New Scientist advierten sobre la importancia de estos resultados. James Johnson, de la Universidad de Aberdeen, considera que “desde la perspectiva del riesgo nuclear, las conclusiones son inquietantes”.

GPT-5.2 mostró una actitud marcadamente
GPT-5.2 mostró una actitud marcadamente pasiva y un optimismo constante durante las partidas de larga duración. (Imagen Ilustrativa Infobae)

Tong Zhao, de Princeton, subraya que el experimento es relevante para los países que evalúan el papel de la IA en la toma de decisiones militares: “No queda claro hasta qué punto están incluyendo el soporte de la IA a la hora de decidir realmente en estos procesos”.

Aunque actualmente los gobiernos no depositan el control total de sus arsenales nucleares en sistemas automatizados, los especialistas advierten que, en situaciones de extrema urgencia, podría haber incentivos para delegar decisiones críticas a la IA.

Zhao señala: “Hay escenarios en los que en franjas de tiempo muy cortas, los planificadores militares tengan ante sí un incentivo muy fuerte que les lleve a depender de la IA”. Es pertinente señalar que estas declaraciones aparecieron en el medio citado.

Este debate no solo se limita al ámbito académico, sino que también ha llegado al cine, como se refleja en ‘Una casa llena de dinamita’ (2025), donde se explora el temor a la escalada nuclear automatizada.