Command Palette
Search for a command to run...
Mao Zheng Zheng Li Bingxin Qu Mingyang Song Yang Du Mingrui Sun Di Wang

Résumé
Dans ce rapport, nous présentons Hunyuan-MT-7B, notre premier modèle open source de traduction multilingue, capable de traduction bidirectionnelle entre 33 langues majeures, avec un accent particulier porté sur les traductions entre le mandarin et plusieurs langues minoritaires ainsi que dialectes. Par ailleurs, afin de répondre à divers scénarios de traduction et d’améliorer les performances du modèle au moment de l’évaluation, nous introduisons Hunyuan-MT-Chimera-7B, un modèle de traduction inspiré du mode de pensée lente. Ce modèle intègre les sorties multiples générées par Hunyuan-MT-7B sous différentes configurations de paramètres, permettant ainsi d’atteindre des performances supérieures à celles des modèles classiques basés sur la pensée en chaîne (Chain-of-Thought, CoT). Le développement de nos modèles s’appuie sur un processus d’entraînement holistique spécifiquement conçu pour la traduction multilingue, qui commence par un pré-entraînement général et orienté vers la traduction, afin de construire des capacités fondamentales, poursuit par un ajustement supervisé (Supervised Fine-Tuning, SFT) pour une adaptation spécifique à la tâche, et se termine par une alignement avancé via l’apprentissage par renforcement (Reinforcement Learning, RL) et un apprentissage par renforcement faible-vers-fort. À travers des expérimentations approfondies, nous démontrons que tant Hunyuan-MT-7B que Hunyuan-MT-Chimera-7B surpassent significativement tous les modèles spécialisés en traduction de taille de paramètres comparable, ainsi que la plupart des modèles de pointe (SOTA) les plus récents, en particulier dans la tâche de traduction entre mandarin et langues minoritaires ou dialectes. Dans le cadre de la tâche partagée WMT2025 (Traduction automatique générale), nos modèles atteignent des performances de pointe, se classant en première position sur 30 des 31 paires de langues. Ce résultat met en évidence la robustesse de nos modèles face à un large éventail de langues, couvrant à la fois des langues à ressources abondantes comme le chinois, l’anglais et le japonais, ainsi que des langues à ressources limitées telles que le tchèque, le marathi, l’estonien et l’islandais.
Construire l'IA avec l'IA
De l'idée au lancement — accélérez votre développement IA avec du co-codage IA gratuit, un environnement prêt à l'emploi et les meilleurs prix GPU.