Ciencia y tecnología

Alguien jugó un juego de estrategia, Géminis, Claude y Company. Todos desarrollaron una personalidad completamente diferente – Al Día cr

Durante 36 horas, siete de los modelos de IA más avanzados del mundo Te has enfrentado en varios juegos de diplomatismoUna tabla de estrategia similar al riesgo. Fue un espejo que dio a conocer las verdaderas personalidades algorítmicas de Chatgpt, Claude, Gemini y Company.

¿Por qué es importante?. Alex Duffy, programador e investigador, creó una diplomacia como nueva Punto de referencia Calificar modelos de IA. El experimento fue algo diferente, una especie de prueba tecnológica de Rorschach que desarrolló sus prejuicios de entrenamiento y nuestras propias proyecciones.

Qué pasó. En docenas de juegos que fueron transmitidos por Twitch, cada modelo desarrolló sus propias estrategias de una manera que refleje diferentes personalidades humanas.

  • El O3 de OpenAai era bastante maquiavélico, trabajó alianzas falsas para más de 40 capas y creó «realidades paralelas» para diferentes jugadores.
  • Claude 4 Opus fue una especie de auto -carrentemonía Pacífico que se negó a revelar incluso si esto garantizaba su derrota.
  • R1 de Deepseek mostró un estilo extremadamente teatral, con amenazas que no arderán ya que «su flota se quemará en el Mar Negro esta noche».
  • Gemini 2.5 Pro fue un estratega sólido, pero más susceptible a manipulaciones altamente desarrolladas.
  • QWQ-32B de Alibaba sufrió un análisis a través del análisis y escribió mensajes diplomáticos de 300 palabras que le costaron la eliminación temprana.

El contexto. La diplomacia es un juego de estrategia europea en 1901, en el que siete poderes luchan por el continente. En contraste con el riesgo, requiere negociaciones constantes, la formación de alianzas y la traición inevitablemente calculada. No hay piedad, solo estrategia pura y manipulación psicológica.

Entre líneas. Cada «personalidad algorítmica» refleja los valores de sus creadores.

  • Claude conserva los principios de la seguridad antrópica, incluso si cuesta la victoria.
  • El O3 muestra una eficiencia despiadada que vale la pena el valor de Silicon Valley.
  • Deepseek muestra un drama que refleja influencias culturales específicas.

Y también hay algo más profundo. Estos no se «deciden» ser cooperativos o competitivos. Reproducen patrones de sus datos de entrenamiento. Sus «decisiones» son nuestros prejuicios algorítmicos que se han convertido en código.

Si pero. Interpretamos la traición en la que «solo» los parámetros están optimizados, y vemos lealtad donde hay restricciones de entrenamiento. Es por eso que el experimento también revela más sobre nosotros que los modelos: los comportamientos de antropomorficidades porque tenemos que entender la IA en términos humanos.

En la perspectiva. El experimento de Duffy es más que un valor Punto de referencia Todos porque han creado una ventana sobre cómo proyectamos la personalidad en sistemas que funcionan para patrones estadísticos. El curso de los juegos fue un recuerdo de que IA no tiene intenciones ocultas, pero solo reflejó la nuestra.

El experimento, por cierto, Continuar a través del envío de Twitch Para que todos puedan ver cómo juegan nuestras creaciones digitales de acuerdo con las reglas que escribimos en sus algoritmos.

En |

Excelente imagen | Diplomacia de IA