Ciencia y tecnología

La gran revolución de GPT-5.3 Codex y Claude Opus 4.6 no es que sean más inteligentes. Se trata de que puedan mejorar. – Al Día cr

La semana pasada, OpenAI y Anthropic lanzaron simultáneamente sus nuevos modelos de IA centrados en la programación: GPT-5.3 Codex y Claude Opus 4.6. Aparte de las mejoras realmente sorprendentes en el rendimiento o la velocidad, ambas compañías también han dicho algo que cambia las reglas del juego: los modelos de IA participan activamente en su propio desarrollo. O dicho de otro modo: la IA está mejorando.

¿Por qué es importante este cambio?. Las herramientas de inteligencia artificial generativa alcanzan un alto nivel de eficiencia y precisión y, en apenas unos años, evolucionan desde empleados para tareas sencillas y específicas hasta empleados que pueden implicarse en gran parte de un desarrollo. Respectivamente la documentación técnica Como desarrollador de OpenAI, el códice GPT 5.3 estuvo «implicado significativamente en su propio desarrollo» y se utilizó para depurar su entrenamiento, gestionar su implementación y diagnosticar los resultados de la evaluación.

Lo que cabe destacar, sin embargo, son las palabras de Dario Amodei, CEO de Anthropic, en su blog personal afirmado que la IA escribe “gran parte del código” en su empresa y que el ciclo de retroalimentación entre la generación actual y la siguiente está “ganando impulso cada mes”.

Detallado. En la práctica, esto significa que cada nueva generación de IA ayuda a construir la siguiente generación más poderosa, que a su vez producirá una versión aún mejor. Los investigadores lo llaman la “explosión de inteligencia” y quienes desarrollan estos sistemas creen que el proceso ya ha comenzado. amodei ha explicado públicamente que «podríamos estar a sólo uno o dos años de un punto en el que la generación actual de IA construya de forma autónoma la siguiente».

La mayoría de nosotros utilizamos modelos de lenguaje gratuitos que están disponibles para todos y moderadamente adecuados para determinadas tareas. Pero también son muy limitados y no reflejan bien lo que es capaz de hacer hoy en día un modelo de IA de última generación. En una breve sesión con 5.3 Codex pude llegar a la misma conclusión, ya que las herramientas de IA que las grandes empresas tecnológicas utilizan en su desarrollo no se pueden comparar en capacidades con las herramientas más comerciales que tenemos disponibles de forma gratuita.

El enfoque del código primero. Una especialización inicial en programación tiene más sentido de lo que pensamos. Y la idea de empresas como OpenAI, Anthropic o Google de que sus sistemas son excepcionales porque escriben código por encima de todo está ligada al hecho de que desarrollar IA requiere enormes cantidades de código. Y si la IA puede escribir este código, puede ayudar a construir su propio desarrollo. «Hacer que la IA fuera excelente en programación fue la estrategia que desbloqueó todo lo demás. Por eso lo hicieron primero», dijo Matt Shumer, director ejecutivo de OthersideAI. una publicación Esto nos ha dado de qué hablar estos días en las redes sociales.

Entre líneas. Los nuevos modelos no sólo escriben código: toman decisiones, iteran sobre su propio trabajo, prueban aplicaciones como un desarrollador humano y refinan el resultado hasta que estén satisfechos. «Le digo a la IA lo que quiero construir. Escribe decenas de miles de líneas de código. Luego abre la aplicación, hace clic en los botones, prueba las funciones. Si algo no le gusta, regresa y lo cambia por su cuenta. Sólo cuando decide que cumple con sus propios estándares vuelve a mí». contado Shumer describe su experiencia con el Codex GPT-5.3.

¿Qué cambia con la autorreferencia?. Anteriormente, cualquier mejora dependía de que los equipos humanos pasaran meses entrenando modelos, ajustando parámetros y corrigiendo errores. Parte de este trabajo ahora lo realiza la propia IA, lo que acelera los ciclos de desarrollo. al igual que compartir Shumer y se refiere a datos METRSegún una organización que mide la capacidad de estos sistemas para completar tareas complejas de forma autónoma, el tiempo que una IA puede funcionar sin intervención humana se duplica aproximadamente cada siete meses, y ya hay evidencia actual de que este periodo podría reducirse a cuatro.

¿Y ahora qué?. Si esta tendencia continúa, para 2027 podríamos ver sistemas capaces de funcionar de forma autónoma en proyectos completos durante semanas seguidas. amodei ha hablado Para 2026 o 2027, se espera que el número de modelos sea “significativamente más inteligente que casi todos los humanos en casi todas las tareas”. Estas no son predicciones lejanas, ya que la infraestructura técnica que permite a la IA ayudar a mejorar ya está operativa. Y son estas habilidades las que realmente están revolucionando la industria tecnológica.

Foto de portada | OpenAI y Antrópico

En | Tenemos un problema con la IA. Los que al principio estaban más entusiasmados empiezan a cansarse.