Ciencia y tecnología

El propósito cuenta con una sólida justificación para iniciar una monumental variación de Llama 4: la capacidad de especialización.

Meta Publicidad ha realizado un anuncio significativo el sábado pasado, revelando el lanzamiento de Flame 4, que incluye sus nuevos modelos de código abierto de IA. Esta iniciativa representa un paso importante en la evolución de la inteligencia artificial, ya que Meta presenta tres variantes multimodales, destacando una que es particularmente impresionante debido a su gran tamaño y capacidades. La magnitud de este lanzamiento y sus implicaciones son relevantes en el campo de la inteligencia artificial.

Presentando Llama 4. Han pasado casi 12 meses desde que Meta introdujo su predecesor, Llama 3. La nueva generación llega con tres configuraciones diversas:

  1. Llame al 4 Scout: un modelo clasificado como «pequeño», diseñado para competir con opciones como Gemma 3, Gemini 2.0 Flash-Lite y Mistral 3.1.
  2. Llame al 4 Maverick: este es un competidor directo de productos como GPT-4O, Gemini 2.0 Flash, y Deepseek V3.
  3. Llame al 4 Gigantoth: un modelo extraordinariamente grande que supera a Meta GPT-4.5, Gemini 2.0 y Claude 3.7 en múltiples métricas. Cabe destacar que este último modelo no está disponible para el público en general.

Maravillosa ventana de contexto. Una de las características más impactantes de estos nuevos modelos es su capacidad para manejar una ventana de contexto de hasta 10 millones de tokens. Este hecho es significativo, ya que permite la entrada de una cantidad masiva de datos, lo que significa que el sistema puede procesar solicitudes más complejas y ofrecer respuestas más elaboradas.

Arquitectura de mezcla de expertos. Estos modelos utilizan una innovadora arquitectura de mezcla de expertos, un enfoque que ya ha sido explotado por modelos como Deepseek. Esta estrategia permite que el modelo active “expertos” especializados en función del tipo de requerimiento, resultando en una mayor eficiencia y un uso más óptimo de los recursos. En esta línea, Scout cuenta con 16 expertos, mientras que Maverick extiende esta cifra a 128. Este diseño también mejora la fase de inferencia, permitiendo respuestas rápidas y efectivas sin consumir excesivos recursos.

Llame al 4 Gentre, el «modelo maestro». Aún no disponible al público, esta versión representa un avance colosal, con una asombrosa cantidad de dos mil millones de parámetros (2T en inglés). Para ponerlo en contexto, el Deepseek R1 cuenta con 671,000 millones de parámetros, lo que hace de Llama 4 Gentre un gigante en comparación. Este modelo tiene el propósito de servir como un «maestro» para las versiones especializadas más pequeñas, algo que es crucial para optimizar las tareas específicas que se requieren en diferentes escenarios.

Tabla comparativa de Llama 4 con algunos de sus competidores más destacados.

Enfoque en la especialización. Esta variante es ideal para ser «destilada», lo que significa que se puede utilizar como base para desarrollar modelos más pequeños y poderosos, adecuados para tareas específicas, basándose en el conocimiento extraído de este «modelo maestro» que representa Llama 4. Esto permite una adaptación a áreas y escenarios concretos, maximizando su efectividad en situaciones concretas.

Reducida censura en los modelos. El generador de imágenes Operai ha experimentado un cambio de enfoque, utilizando menos restricciones de censura inspiradas en el modelo Grok 3. Como resultado, se obtiene un modelo que puede ser un poco menos «políticamente correcto», lo que a su vez da lugar a interacciones más variadas y menos restringidas.

Resultados aún en evaluación. Aunque los modelos ofrecen un desempeño notable en los benchmarks, las primeras impresiones de expertos como Simon Willinson, quien lo ha probado indican que no son sobresalientes. A pesar de las expectativas, el modelo Gemini 2.5 Pro parece tener un mejor rendimiento en evaluaciones de resumen y análisis de texto. Sin embargo, recordemos que lo mismo ocurrió con Llama 3, y que las versiones 3.1 y 3.2 mejoraron significativamente con el tiempo.

Disponibilidad inmediata. El modelo Llama 4 ahora se puede probar a través de plataformas como WhatsApp, Instagram y Facebook, así como en el sitio web de Meta ai. Adicionalmente, los expertos ofrecen la opción de descargarlo, aunque se requiere un clúster con una gran capacidad de memoria para poder ejecutarlo en casa. También está disponible en Hugging Face.

Próximos desarrollos. Mark Zuckerberg anunció que, además de estos modelos, se presentará otro denominado «4 Argumentación» en su cuenta de Instagram. Este nuevo modelo será el primero en su tipo en la compañía, y resulta particularmente interesante en el contexto de la competencia con Deepseek R1 y su sucesor, que se lanzará pronto.

Imágenes | Meta

En | Este año, las grandes empresas tecnológicas han tomado una decisión: avanzamos hacia la era de la inteligencia artificial.