Ciencia y tecnología

Google acaba de cambiar las reglas del modelo ligero – Al Día cr

En los últimos años nos hemos acostumbrado a una idea bastante aceptada en el mundo de la IA: los modelos más rápidos tienden a ser menos inteligentes que aquellos que tardan más en responder. Estas variantes “ligeras” funcionan muy bien para muchas aplicaciones en términos de costo y latencia, pero cuando el razonamiento es crítico es común ir un paso más arriba.

Ahora ha sucedido algo inusual en la carrera por liderar el desarrollo de la inteligencia artificial. Géminis 3 DestelloEl nuevo modelo de Google superó a GPT-5.2 Extra High, la variante de razonamiento superior de OpenAI, en varias pruebas de rendimiento. Y eso nos obliga a repensar algunas de las reglas que damos por sentadas.

Un modelo rápido que además es sensato. El nuevo modelo de Google hace una promesa muy específica: pretende demostrar que «la velocidad y la escalabilidad no tienen por qué ir a expensas de la inteligencia». Aunque está diseñado para ser eficiente tanto en costo como en velocidad, Google insiste en que Gemini 3 Flash también sobresale en tareas de razonamiento.

Según la empresa, el modelo puede ajustar su capacidad de pensamiento. Es capaz de “pensar” más tiempo cuando el caso de uso lo requiere, pero también consume un promedio de 30% menos tokens que el Gemini 2.5 Pro en términos de tráfico típico para completar una variedad de tareas con alta precisión y sin comprometer los tiempos de respuesta.

La verdad está en los puntos de referencia.. ¿Son perfectos los puntos de referencia? NO. Pero siguen siendo una de las herramientas más útiles que tenemos para comparar modelos de IA.confrontarlos entre sí y ver en qué escenarios se desempeñan mejor o peor. Y en esta área, Gemini 3 Flash se desempeña bien.

En SimpleQA verificadoEn una prueba que mide la confiabilidad en preguntas de conocimiento, Gemini 3 Flash obtiene una puntuación del 68,7% en comparación con el 38,0% de GPT-5.2 Extra High. Cuando se trata de pensamiento multimodal, el modelo de Google alcanza el 81,2% dentro de MMMU-Pro en comparación con el 79,5% de OpenAI. Para Video MMMU, Flash alcanza el 86,9% en comparación con el 85,9% de GPT-5.2 Extra High.

En cuanto al multilingüismo y las capacidades culturales, Flash vuelve a estar a la cabeza, con un 91,8% frente al 89,6% de GPT-5.2 Extra High. En Global PIQA, que se centra en el sentido común en 100 idiomas, la diferencia persiste: 92,8% para Flash versus 91,2% para el modelo OpenAI. Todo sugiere que Gemini 3 Flash está optimizado específicamente para capturar matices fuera del inglés y argumentar con mayor fluidez en contextos globales.

También se caracteriza por el uso de herramientas y agentes. En Toolathlon, Flash alcanza el 49,4%, en comparación con el 46,3% en GPT-5.2 Extra High. En FACTS Benchmark Suite, la diferencia es menor, pero aún a favor de Google: 61,9% frente a 61,4%. Para tareas de ejecución de herramientas a largo plazo, Flash parece mostrar una mayor coherencia.

Pero él no es el rey del pensamiento puro.. Ahora vale la pena mirar la foto completa. Aunque Gemini 3 Flash supera al mejor modelo OpenAI en varias pruebas, el equilibrio cambia cuando se busca razonamiento “puro”. En las pruebas más exigentes en este ámbito, GPT-5.2 Extra High sigue marcando la pauta.

El modelo OpenAI lidera ARC-AGI-2, que se centra en acertijos visuales, con un 52,9% frente a Flash con un 33,6%. En AIME 2025 logra el 100% en ejecución de código frente al 99,7%. Y en SWE Bench Verified, que se centra en la ingeniería de software, obtiene una puntuación del 80,0% en comparación con el 78,0% de Gemini 3 Flash.

¿Qué es exactamente GPT-5.2 Extra High?. A lo largo del artículo aparece varias veces el nombre GPT-5.2 Extra High y es normal preguntarse si es algo nuevo o poco conocido. En realidad, no es un modelo que se suela mencionar al gran público.

Google utiliza esta designación en su tabla comparativa para indicar el nivel máximo de razonamiento disponible en la API OpenAI para GPT-5.2 Thinking y Pro. En la documentación oficial de OpenAI se identifica como “xhigh”..

Dónde puedes usar Gemini 3 Flash. El acceso a Gemini 3 Flash no depende del país. Si tienes acceso a la aplicación Gemini, ya estás usando este modelo, que se ha convertido en la opción predeterminada. También llega a los desarrolladores a través de API, AI Studio y Vertex AI. En EE.UU., el lanzamiento va un paso más allá, ya que Gemini 3 Flash se ha convertido en el modelo estándar del modo IA del motor de búsqueda de Google.

El precio de usar Gemini 3 Flash. Para aquellos que buscan integrar Gemini 3 Flash en sus aplicaciones, el modelo cuesta $0,50 por millón de tokens de entrada y $3 por millón de tokens de salida. Este es un ligero aumento con respecto a Gemini Flash 2.5, que era de $0,30 por millón de tokens recibidos y $2,50 por millón de tokens emitidos.

Una carrera cada vez más reñida. Atrás quedaron los días en que Google intentaba enfrentar a ChatGPT con Bard, o cuando OpenAI parecía estar años por delante del resto. Hoy en día, las brechas entre los grandes actores de la IA se han reducido drásticamente. La competencia es más directa, más técnica y, sobre todo, mucho más reñida.

Imágenes | Google

En | Amazon se prepara para invertir 10 mil millones en OpenAI, porque si no puedes derrotar a tu enemigo, lo mejor es unirte a él