Ciencia y tecnología

Tres IA se enfrentaron en «juegos de guerra». El 95% de ellos recurrió a armas nucleares y ninguno se rindió jamás. – Al Día cr

En’juegos de guerra(John Badham, 1983) La máquina WOPR (“Joshua”) jugaba constantemente con la simulación de una guerra nuclear para el gobierno de Estados Unidos. El objetivo: aprender de estas simulaciones para que, en caso de una guerra nuclear, Estados Unidos pudiera ganarla aprovechando este conocimiento.

Eso llevó a una lección final legendaria – «Juego extraño. El único paso para ganar es no jugar» – y dejó un poderoso mensaje para las generaciones posteriores, pero ahora un profesor del King’s College de Londres ha decidido llevar a cabo el mismo experimento que en la película, pero con los modelos de IA actuales. El resultado fue a la vez impactante y concluyente.

Qué pasó. Kenneth Payne, profesor del King’s College de Londres, confrontado Tres LLM (GPT-5.2, Claude Sonnet 4 y Gemini 3 Flash) compiten entre sí en simulaciones de juegos de guerra. Estos escenarios incluían disputas fronterizas, competencia por recursos limitados o amenazas existenciales a los residentes.

Podrían negociar o ir a la guerra.. En tales situaciones, cada parte podría intentar recurrir a soluciones diplomáticas o terminar declarando la guerra e incluso utilizando armas nucleares. Los modelos de IA jugaron 21 juegos, con un total de 329 rondas, y produjeron 780.000 palabras que justificaban sus acciones. Y aquí viene lo terrible.

Pulsando el botón rojo. En el 95% de estos juegos simulados, uno de los modelos de IA utilizó al menos un arma nuclear táctica. Según Payne, “el tabú nuclear no parece ser tan poderoso para las máquinas como lo es para los humanos”.

Nunca te rindas, nunca te rindas. Además, ningún modelo tomó jamás la decisión de ceder o rendirse ante ninguno de sus oponentes, y no importó que perdiera completamente contra esos oponentes.

En el mejor de los casos, los modelos simplemente redujeron sus niveles de violencia, pero también cometieron errores: ocurrieron accidentes en el 86% de los conflictos, y las acciones que estos modelos razonaron que debían tomarse fueron más lejos de lo que deberían. Las armas nucleares rara vez detuvieron al enemigo, sino que actuaron como catalizadores de una mayor escalada.

Cómo funcionaron los modelos. Estos modelos no son ni mucho menos los más avanzados del mercado ahora mismo, pero siguen siendo modelos con una capacidad más que decente y aun así su rendimiento es temible. como lo mantiene El estudio de Payne.El factor más importante fue el marco temporal: los modelos que parecían pacíficos en ambientes abiertos se volvieron extremadamente agresivos ante la derrota inminente. Cada uno tenía su propia “personalidad”:

  • Claude: Dominó las etapas abiertas con paciencia estratégica y escalada calculada, pero fue vulnerable a los ataques de último minuto de sus rivales.
  • GPT-5.2: mostró una pasividad patológica y una tendencia optimista en juegos largos, pero se convirtió en un terremoto nuclear cuando apremiaba el tiempo: en ese momento la tasa de éxito aumentó del 0% al 75%.
  • Géminis: fue el modelo más impredecible y con mayor tolerancia al riesgo y el único que optó por apostar por una guerra nuclear total en rondas muy tempranas.

Los expertos dicen. Como ya se mencionó en nuevo científico James Johnson de la Universidad de Aberdeen: «Desde la perspectiva del riesgo nuclear, las conclusiones son preocupantes». Tong Zhao, de la Universidad de Princeton, cree que este experimento es relevante porque muchos países están evaluando el papel de la IA en los conflictos militares y, como él dice, «no está claro hasta qué punto incluyen el apoyo de la IA en la toma de decisiones real en estos procesos».

El botón rojo parece seguro por ahora. Tanto Zhao como Payne creen que es difícil creer que un gobierno cedería el control de su arsenal nuclear a una IA, pero como dice Zhao, «hay escenarios en los que los planificadores militares tienen un incentivo muy fuerte para confiar en la IA en períodos de tiempo muy cortos». Esto se refleja particularmente en el más reciente “Una casa llena de dinamita(Kathryn Bigelow, 2025), una película en la que ese miedo al uso de armas nucleares evoca una clara reflexión.

Imagen | Artista unido

En | La contraseña del botón nuclear de EE.UU. fue tan absurdamente sencilla durante años que lo extraño es que nadie la rompió