HyperAI
Back to Headlines

Hugging Face Dévoile SmolLM3 : Un Modèle Linguistique Compact et Multilingue pour le Raisonnement à Longue Contextualisation

il y a 2 jours

Hugging Face lance SmolLM3 : Un modèle de langage multilingue de 3 milliards de paramètres pour la compréhension de longues séquences Hugging Face a annoncé le lancement de SmolLM3, la dernière version de sa gamme de modèles de langage « Smol ». Conçu pour offrir des capacités de raisonnement multilingue sur de longues séquences de 128 000 jetons, ce modèle compact de 3 milliards de paramètres présente une performance exceptionnelle, comparable à celle des modèles dotés de 7 milliards de paramètres ou plus. Cette avancée permet une utilisation plus rentable sur des plateformes à ressources limitées, tout en conservant des fonctionnalités comme l'utilisation d'outils, le raisonnement en plusieurs étapes, et la diversité linguistique. Vue d'ensemble de SmolLM3 SmolLM3 se distingue par sa taille réduite et ses performances élevées. Il est capable de traiter des séquences allant jusqu'à 128 000 jetons, ce qui le place en position de concurrent face à des modèles plus volumineux comme Mistral, LLaMA 2, et Falcon. En dépit de son petit nombre de paramètres, SmolLM3 offre des performances solides en matière d'utilisation d'outils et de raisonnement à partir de quelques exemples—des traits généralement associés à des modèles deux ou trois fois plus grands. Lancé sous deux variations, SmolLM3-3B-Base et SmolLM3-3B-Instruct, le modèle est disponible sur le Model Hub de Hugging Face sous la licence Apache 2.0. Caractéristiques clés Raisonnement sur des longues séquences (jusqu'à 128 000 jetons) SmolLM3 utilise un mécanisme d'attention modifié pour traite efficacement des contextes extrêmement longs—jusqu'à 128 000 jetons. Cette capacité est cruciale pour les tâches impliquant des documents, des logs, ou des enregistrements structurés où la longueur du contexte influences directement la compréhension et la précision. Mode de raisonnement dual SmolLM3-3B-Base est optimisé pour la génération de textes libres. SmolLM3-3B-Instruct prend en charge le raisonnement dual, permettant à la fois la génération de textes libres et structurés. Cela lui confère une flexibilité pour être utilisé aussi bien dans des pipelines RAG (Retrieval-Augmented Generation) que dans des flux de travail d'agents, en répondant aux contraintes entrée-sortie basées sur des schémas. Capacités multilingues Entraîné sur un corpus multilingue, SmolLM3 est compétent dans six langues : anglais, français, espagnol, allemand, italien et portugais. Il affiche des performances solides sur des基准测试 comme XQuAD et MGSM, démontrant sa capacité à generaliser à travers différentes langues avec une perte minimale de performance. Taille compacte avec performance SoTA (State-of-the-Art) Avec seulement 3 milliards de paramètres, SmolLM3 atteint des performances comparables à celles des modèles de 7 milliards de paramètres comme Mistral-7B, notamment sur plusieurs tâches de traitement en aval. Ce succès est attribué à une base de données d'entraînement massive de 11 billions de jetons et à une conception architecturale soignée. Utilisation d'outils et génération de sorties structurées Le modèle montre des performances remarquables sur des tâches nécessitant l'utilisation d'outils—que ce soit dans des flux de travail basés sur des prompts ou avec des sorties structurées. Il suit correctement les contraintes entrée-sortie pilotées par des schémas et s'intègre bien dans des systèmes nécessitant un comportement déterministe, comme les agents autonomes et les environnements contrôlés par des API. Détails techniques de l'entraînement L'entraînement de SmolLM3 a été réalisé sur un mélange interne curié par Hugging Face, comprenant des contenus web de haute qualité, des codes, des articles académiques et des sources multilingues. L'entraînement sur 11 billions de jetons a été effectué en utilisant des stratégies de formation distribuée multi-nœuds sur des clusters GPU, avec des optimisations comme la Flash Attention v2 pour une formation efficace de longues séquences. L'encodeur de jetons est un modèle SentencePiece de 128 000 jetons, partagé entre toutes les langues supportées. Pour le support des longues séquences, Hugging Face a employé des mécanismes d'attention linéaire et groupée qui réduisent la complexité quadratique tout en maintenant des performances élevées. Ceci a permis au modèle de gérer des séquences de 128 000 jetons lors de l'entraînement et de l'inférence—sans rencontrer de goulot d'étranglement en mémoire qui affectent souvent les transformateurs denses à cette échelle. La variante SmolLM3-3B-Instruct a été formée ultérieurement en utilisant la bibliothèque trlx de Hugging Face pour aligner le modèle sur des instructions de chat, des tâches de raisonnement et des démonstrations d'utilisation d'outils. Benchmarks de performance SmolLM3 affiche une performance solide sur diverses évaluations multilingues et de raisonnement : - MMLU (Multilingual Multi-Task Language Understanding) : Des scores compétitifs avec des modèles plus grands. - XQEval (Cross-lingual Quality Evaluation) : Des résultats similaires à ceux des modèles de 7B paramètres sur différents tests de qualité. - HumanEvalX (Multilingual Code Evaluation) : Des performances notables en évaluation de code multilingue. Bien que le modèle ne dépasse pas les dernières générations de modèles de 7B ou 13B sur tous les benchmarks, son ratio performance-paramètres reste l'un des plus élevés de sa catégorie. Cas d'utilisation et applications SmolLM3 convient particulièrement à : - RAG (Retrieval-Augmented Generation) : Pour l'extraction et la génération de données à partir de sources externes. - Flux de travail d'agents autonomes : En raison de sa capacité à effectuer des tâches structurées et à utiliser des outils. - Déploiement sur des plateformes à ressources limitées : Grâce à sa taille compacte et son efficacité en termes de coûts. - Analyse de documents longs : Permet de traiter des documents complets sans perte de contexte. - Assistance multilingue : Idéal pour des applications internationales nécessitant une compréhension en plusieurs langues. Évaluation et profil de l'entreprise Selon des experts de l'industrie, la sortie de SmolLM3 est une avancée significative. Elle montre que des modèles plus petits peuvent encore être très performants si ils bénéficient d'une formation de qualité et d'une conception architecturale optimisée. Hugging Face, une entreprise renommée dans le domaine de l'intelligence artificielle, est à l'avant-garde en matière de modèles de langage grâce à ses innovations constantes. La mise à disposition publique de SmolLM3 souligne également l'engagement de l'entreprise envers l'accessibilité et la collaboration dans la communauté ML (Machine Learning). Pour en savoir plus, consultez les modèles SmolLM3-3B-Base et SmolLM3-3B-Instruct sur le Model Hub de Hugging Face. Tous les crédits de cette recherche reviennent aux chercheurs du projet. Suivez Hugging Face sur Twitter et YouTube, et rejoignez leur communautés Reddit et newsletter pour rester informé des dernières avancées en machine learning.

Related Links