🦙 LLaMA 4 Scout y Maverick: la nueva ofensiva open source de Meta en IA generativa


Por NoeliaGorod – Experta en Inteligencia Artificial

Meta acaba de elevar el estándar de la IA open source con el anuncio de dos nuevos modelos de su familia LLaMA 4: Scout y Maverick. Ambos están diseñados bajo arquitectura Mixture of Experts (MoE) y posicionan a Meta como una de las alternativas más serias al liderazgo de modelos propietarios como GPT-4, Claude 3 o Gemini 2.0.


🦙 LLaMA 4 Scout: compacto, eficiente y con memoria gigantesca

Scout es un modelo compacto pero extremadamente potente. Cuenta con:

  • 17B parámetros activos, con una arquitectura MoE de 16 expertos (109B totales).
  • Se puede ejecutar en una sola GPU H100, gracias a la cuantización Int4.
  • Sorprende con una ventana de contexto de 10 millones de tokens, ideal para tareas de largo alcance como razonamiento complejo, resúmenes extensos o documentos técnicos.

💡 Rendimiento:

  • Supera a modelos como Gemma 3, Mistral 3.1 y Gemini 2.0 Flash-Lite en benchmarks de razonamiento, grounding de imágenes y codificación.
  • Ideal para casos de uso que requieren eficiencia y largo contexto sin infraestructura masiva.

🦙 LLaMA 4 Maverick: rendimiento premium con eficiencia insuperable

Maverick es el modelo estrella para asistentes conversacionales y tareas multimodales más exigentes. Sus cifras lo colocan entre los mejores:

  • 17B parámetros activos, pero esta vez con 128 expertos, alcanzando los 400B parámetros totales.
  • Supera a GPT-4o y Gemini 2.0 en múltiples pruebas, y es comparable con DeepSeek v3 en razonamiento y programación, aunque con la mitad de parámetros activos.
  • Obtiene una puntuación ELO de 1417 en LMArena, uno de los mejores ratios rendimiento/costo del mercado open source.

Ambos modelos nacen de LLaMA 4 Behemoth

Tanto Scout como Maverick están destilados del modelo LLaMA 4 Behemoth, una verdadera bestia técnica:

  • 288B parámetros activos, 2 trillones de parámetros totales.
  • Supera a GPT-4.5 y Gemini 2.0 Pro en benchmarks STEM.
  • Es la base fundacional para los modelos más eficientes y ajustados de Meta.

¿Qué hace diferente a esta generación de LLaMA?

1. Arquitectura Mixture of Experts (MoE) con atención intercalada (iRoPE)

Esto permite escalar el número total de parámetros sin que el modelo tenga que activarlos todos en cada paso. Solo se activan unos pocos expertos por tarea, lo que permite:

  • Aumentar capacidad sin comprometer eficiencia.
  • Personalizar respuestas según el tipo de input.
  • Facilitar entrenamiento y fine-tuning.

2. Fusión multimodal desde el pre-entrenamiento

Meta entrena estos modelos desde el inicio con texto, imágenes y video, no como modalidades aisladas. Esto mejora:

  • Comprensión semántica profunda.
  • Capacidad de grounding visual.
  • Navegación fluida en entornos ricos en contexto (documentos, interfaces, juegos, etc.).

3. Entrenamiento multilingüe masivo

  • 30T tokens totales.
  • 10x más datos multilingües que LLaMA 3.
  • Cobertura de 200 idiomas, lo que lo convierte en uno de los modelos más accesibles globalmente.

4. Precision FP8 y ajuste por refuerzo

  • Entrenamiento con precisión FP8, que mejora el rendimiento sin penalizar calidad.
  • Fine-tuning basado en aprendizaje por refuerzo (RLAIF) y DPO (Direct Preference Optimization), con mínima intervención humana.

Comparativa rápida (Scout vs Maverick vs otros modelos)

ModeloParámetros ActivosContextoMultimodalELO LMArenaIdeal para…
LLaMA 4 Scout17B10M tokensLargos contextos, eficiencia
LLaMA 4 Maverick17B~1M tokens1417Chatbots, asistentes, programación
GPT-4o~25B*128K tokens1300+Multimodal generalista
Claude 3 Opus~30B*200K tokens1300+Razonamiento y contexto largo
DeepSeek v330B128K tokensParcial~1400Razonamiento técnico

*Estimaciones no oficiales


¿Por qué es importante este lanzamiento?

  • Abre el acceso a modelos potentes con menos recursos (especialmente Scout).
  • Reduce la brecha entre open source y closed source, especialmente en tareas multimodales.
  • Refuerza el dominio técnico de Meta en el segmento open source, tras el éxito de LLaMA 2 y 3.
  • Democratiza la IA generativa para startups, investigadores y desarrolladores independientes.

¿Qué podemos esperar ahora?

La carrera de modelos open source se acelera. Con LLaMA 4 Scout y Maverick, Meta no solo responde al dominio de OpenAI, Anthropic y Google, sino que plantea una alternativa real, eficiente y altamente personalizable.

Como especialista en inteligencia artificial aplicada, creo que este tipo de modelos van a impulsar:

  • Aplicaciones con contexto extenso y específico, como documentos legales, chats empresariales o narrativa generativa.
  • Asistentes multimodales integrados en apps, herramientas de diseño o plataformas educativas.
  • Proyectos de código abierto más robustos y cercanos a nivel producción.

Recursos y enlaces

🔗 Blog oficial de Meta: Meta AI Blog
🔗 Acceso a los modelos y weights: LLaMA 4 Models


¿Os gustaría que analice estos modelos comparados con GPT-4, Claude o Gemini?

Estoy preparando un informe visual con:

  • Comparativas de benchmarks.
  • Casos de uso ideales para cada modelo.
  • Ejemplos de prompts optimizados para LLaMA 4.

📩 Suscribite al blog o escribime por LinkedIn si quieres recibirlo primero.

Deja un comentario

Este sitio utiliza Akismet para reducir el spam. Conoce cómo se procesan los datos de tus comentarios.