Command Palette
Search for a command to run...
Mao Zheng Zheng Li Bingxin Qu Mingyang Song Yang Du Mingrui Sun Di Wang

要約
本報告では、我々が開発した初のオープンソース多言語翻訳モデル「Hunyuan-MT-7B」を紹介する。このモデルは、33の主要言語間での双方向翻訳をサポートしており、特に中国語(標準語)と複数の民族・少数言語および方言間の翻訳に重点を置いている。さらに、多様な翻訳シナリオに対応し、推論時のモデル性能を向上させるために、『ゆっくり考える』(slow thinking)モードに着想を得た翻訳モデル「Hunyuan-MT-Chimera-7B」を提案する。このモデルは、異なるパラメータ設定下で生成された複数の出力を統合することで、従来のChain-of-Thought(CoT)に基づくゆっくり考えるモデルと比較して優れた性能を達成している。本モデルの開発プロセスは、多言語翻訳に特化した包括的な学習フローに従っており、まず汎用的かつ翻訳指向の事前学習により基礎的な能力を構築し、その後、タスク特化のための教師あり微調整(Supervised Fine-Tuning, SFT)を実施し、最後に強化学習(Reinforcement Learning, RL)および弱いモデルから強いモデルへの段階的強化(weak-to-strong RL)による高度な整合を実現する。広範な実験を通じて、Hunyuan-MT-7BおよびHunyuan-MT-Chimera-7Bの両モデルが、同規模の翻訳専用モデルおよび多数の最先端大規模モデルを大きく上回ることを示した。特に、中国語と少数言語および方言間の翻訳タスクにおいて顕著な優位性を示した。また、WMT2025共同タスク(一般機械翻訳)において、31の言語ペアのうち30で首位を獲得し、最先端の性能を実証した。この結果は、本モデルが中国語、英語、日本語など高リソース言語からチェコ語、マラーティ語、エストニア語、アイスランド語など低リソース言語まで、多様な言語体系にわたって堅牢な性能を発揮することを示している。