Meta Llama 4 dévoilé : les nouvelles générations ouvertes aux développeurs, multimodales et puissantes
Meta a lancé Llama, une série de modèles d’intelligence artificielle générative open-source, qui se distingue des modèles concurrents comme Claude, Gemini ou ChatGPT, disponibles uniquement via des API. Contrairement à ces derniers, Llama est téléchargeable librement par les développeurs, avec des restrictions spécifiques dans son accord de licence. Cette approche ouverte vise à favoriser l’innovation et la personnalisation, tout en permettant à Meta de s’associer à des géants du cloud comme AWS, Google Cloud et Microsoft Azure pour proposer des versions hébergées. La dernière version, Llama 4, dévoilée en avril 2025, comprend trois modèles : Scout, Maverick et Behemoth. Llama 4 Scout, conçu pour les workflows complexes, dispose d’une fenêtre contextuelle de 10 millions de tokens — équivalente à environ 80 romans — et intègre une capacité multimodale native (texte, image, vidéo). Maverick, plus équilibré, offre une fenêtre de 1 million de tokens, idéale pour le codage, les chatbots et les assistants techniques. Behemoth, quant à lui, est un modèle de recherche avancée, doté de 16 experts dans une architecture « mixture-of-experts » (MoE), destiné à l’entraînement de modèles plus petits. Tous les modèles ont été entraînés sur des données textuelles, visuelles et vidéo non étiquetées, dans 200 langues. Llama 4 Scout et Maverick sont les premiers modèles open-weight multimodaux natifs de Meta. Les modèles sont également compatibles avec des outils externes : recherche Brave, Wolfram Alpha pour les calculs scientifiques, interpréteur Python pour valider le code — bien que ces fonctionnalités nécessitent une configuration manuelle. Llama est déjà intégré dans plusieurs produits Meta, notamment l’assistant AI sur Facebook Messenger, WhatsApp, Instagram, Oculus et Meta.ai, dans plus de 40 pays. Des versions fine-tunées sont utilisées dans plus de 200 pays. Les modèles sont disponibles sur Llama.com, Hugging Face et via plus de 25 partenaires cloud, dont Nvidia, Databricks, Groq et Snowflake. Meta perçoit des revenus via des accords de partage de revenus avec ces hébergeurs. Un programme lancé en mai 2025, « Llama for Startups », soutient les jeunes entreprises avec du mentorat, des ressources et un accès potentiel à des financements. Pour garantir la sécurité, Meta propose plusieurs outils : Llama Guard (détection de contenu dangereux), Prompt Guard (résistance aux jailbreaks), Llama Firewall (prévention des injections de prompts), Code Shield (sécurité du code généré) et CyberSecEval (benchmarks de sécurité). Cependant, Llama présente des limites. Ses capacités multimodales sont actuellement limitées à l’anglais. L’entraînement sur des livres piratés a suscité des controverses juridiques, bien que la justice américaine ait récemment reconnu ce recours comme « fair use ». Les risques de violation de droits d’auteur persistent si des extraits protégés sont reproduits dans des produits. De plus, l’entraînement sur des données publiques de Facebook et Instagram soulève des questions éthiques, avec peu de moyens pour les utilisateurs de s’opposer. En matière de codage, Llama 4 Maverick obtient 40 % sur LiveCodeBench, bien en dessous de GPT-5 (85 %) et Grok 4 Fast (83 %), ce qui souligne le risque de code buggé ou vulnérable. Comme tous les modèles d’IA générative, Llama peut produire des informations plausibles mais fausses, notamment dans des domaines sensibles comme le droit ou les conseils émotionnels. Une vérification humaine reste indispensable. En résumé, Llama représente une avancée majeure dans l’IA open-source, combinant puissance, accessibilité et sécurité, tout en restant confronté aux défis classiques de l’IA : biais, sécurité, qualité du code et responsabilité éthique.
