Un trio de choc : Scout, Maverick et… Behemoth ?
Oubliez l’idée d’un modèle unique. Llama 4 se décline en trois versions distinctes, chacune taillée pour des usages spécifiques. Deux sont déjà disponibles, tandis que la troisième se fait encore désirer :
- Llama 4 Scout : le poids plume. Avec ses 17 milliards de paramètres actifs (sur 109 milliards au total grâce à une architecture d’experts, on y reviendra), Scout est le modèle d’entrée de gamme. Optimisé pour fonctionner sur une seule carte graphique H100 grâce à la quantification Int4, il affiche une fenêtre de contexte record de 10 millions de tokens. De quoi digérer des romans entiers, ou des conversations interminables. L’objectif ? Démocratiser l’accès à une IA puissante, même pour les configurations modestes.
- Llama 4 Maverick : le tueur à gages. Passez au niveau supérieur avec Maverick. Ses 128 experts mobilisent 400 milliards de paramètres (dont une partie seulement est active à chaque requête), lui permettant de rivaliser avec, voire de surpasser, des pointures comme GPT-4o et Gemini 2.0 Flash sur les tâches de raisonnement et de codage. L’astuce ? Une architecture dite Mixture-of-Experts (MoE), qui active seulement les experts pertinents pour chaque tâche, optimisant ainsi les performances et la consommation énergétique. Un peu comme si vous consultiez un spécialiste pour chaque problème, plutôt qu’un généraliste.
- Llama 4 Behemoth : le titan endormi. Pour l’instant, Behemoth reste une promesse. Zuckerberg a confirmé son existence, évoquant un modèle de recherche encore en phase d’entraînement, avec la bagatelle de 288 milliards de paramètres actifs. Difficile d’imaginer la puissance de feu de ce monstre une fois réveillé. Rendez-vous le 29 avril à la LlamaCon pour en savoir plus.
Modèle | Paramètres actifs | Paramètres totaux | Fenêtre de contexte | Particularités |
---|---|---|---|---|
Scout | 17 milliards | 109 milliards | 10 millions de tokens | Quantifié Int4, optimisé GPU |
Maverick | N/A | 400 milliards | N/A | Architecture MoE (128 experts) |
Behemoth | 288 milliards | N/A | N/A | En cours d’entraînement |
Multimodalité native : voir, lire, comprendre
L’une des grandes forces de Llama 4 réside dans sa multimodalité native. Contrairement à d’autres modèles qui greffent la compréhension visuelle a posteriori, Llama 4 intègre le traitement du texte, de l’image et de la vidéo dès le pré-entraînement. Ce cocktail explosif, baptisé early fusion, a permis d’entraîner les modèles sur un corpus gargantuesque de 30 trillions de tokens – deux fois plus que Llama 3. Le résultat ? Une compréhension du monde plus riche et plus nuancée. Imaginez une IA capable d’analyser une vidéo, d’en extraire le sens, et de la commenter avec pertinence.
L’ouverture comme pari stratégique (et risqué)
Alors que la plupart des concurrents misent sur des modèles fermés, Meta persiste et signe : Llama 4 sera open-source, avec une licence communautaire permissive. Un pari audacieux, qui pourrait transformer l’écosystème de l’IA. D’un côté, l’ouverture favorise l’innovation collaborative, permettant aux développeurs d’adapter et d’améliorer les modèles selon leurs besoins. De l’autre, elle expose Meta à des risques de dérives éthiques, notamment l’utilisation malveillante de l’IA pour créer des deepfakes ou diffuser des contenus illégaux. Zuckerberg semble conscient de ce dilemme, mais assume son choix, pariant sur la transparence et l’intelligence collective pour contrer les usages malveillants.
Des retards et des questions
Le chemin vers Llama 4 n’a pas été sans embûches. Des rumeurs persistantes font état de reports successifs, liés à des défis techniques et stratégiques. Si Zuckerberg minimise ces contretemps, ils soulèvent des questions sur la complexité de gérer un projet d’une telle ampleur, et sur la capacité de Meta à tenir ses promesses.
Nous avons dû surmonter des défis considérables pour déployer une technologie aussi complexe à l’échelle de Meta.
L’avenir de l’IA se joue maintenant
Avec Llama 4, Meta frappe un grand coup et s’impose comme un acteur majeur de l’IA ouverte. L’accessibilité des modèles Scout et Maverick ouvre un champ des possibles immense pour les développeurs, tandis que le mystérieux Behemoth promet des performances encore plus spectaculaires. Reste à voir si cette stratégie d’ouverture portera ses fruits face à la concurrence féroce des modèles fermés. Réponse dans les prochains mois, et sans doute plus précisément lors de la LlamaCon le 29 avril prochain.