IA meta NOTICIAS PORTADA

#Meta – Presentó los modelos Llama 4 +

Mark Zuckerberg presentó los primeros modelos de la colección Llama 4 y que las personas pueden probar desde el lunes 7 de abril en Meta AI a través de WhatsApp, Instagram, Messenger y meta.ai. Llama 4 Scout y Llama 4 Maverick (ambos de código abierto) son los modelos más avanzados hasta ahora y los mejores en su clase en multimodalidad. Estos nuevos modelos cuentan con un rendimiento líder en la industria gracias a la destilación de Llama 4 Behemoth, modelo más poderoso y uno de los LLM más inteligentes del mundo (Fuente Meta Argentina).

Datos rápidos sobre los modelos:

·         Llama 4 Scout, un modelo de Mezcla de Expertos (MoE por sus siglas en inglés) con 17 mil millones de parámetros activos y 16 expertos. Ofrece una ventana de contexto líder en la industria con 10 millones de tokens y supera a Gemma 3, Gemini 2.0 Flash-Lite y Mistral 3.1 en una amplia gama de pruebas de referencia ampliamente aceptadas.

·         Llama 4 Maverick, un modelo MoE con 17 mil millones de parámetros activos y 128 expertos, presenta la mejor capacidad de anclaje de imágenes en su clase y supera a GPT-4o y Gemini 2.0 Flash en una amplia gama de pruebas de referencia ampliamente aceptadas. Logra resultados comparables a DeepSeek v3 en razonamiento y codificación, con la mitad de los parámetros activos. Ofrece una relación rendimiento-costo sin igual con una versión de chat que obtiene una puntuación ELO de 1417 en LMArena.

·         Llama 4 Behemoth – Estos modelos son nuestros mejores hasta ahora gracias a la destilación de Llama 4 Behemoth, nuestro modelo más poderoso hasta la fecha. Llama 4 Behemoth todavía está en entrenamiento y aún no se ha lanzado, pero actualmente está obteniendo resultados que superan a GPT-4.5, Claude Sonnet 3.7 y Gemini 2.0 Pro en pruebas de referencia centradas en STEM.

Más sobre Meta AI con Llama 4

Se está implementando en más de 40 países y 13 idiomas a través de WhatsApp, Messenger, Instagram Direct y meta.ai. Por ahora, las funciones multimodales están limitadas a los EE. UU. en inglés, lo cual es consistente con nuestra disponibilidad de funciones multimodales existentes en nuestras aplicaciones. Estamos trabajando para llevar Meta AI con Llama 4, incluidas las funciones multimodales, a más personas en todo el mundo este año.

Más información desde el blog de meta.