Command Palette
Search for a command to run...
Mao Zheng Zheng Li Bingxin Qu Mingyang Song Yang Du Mingrui Sun Di Wang

Abstract
In diesem Bericht stellen wir Hunyuan-MT-7B vor, unser erstes Open-Source-Modell für mehrsprachige Übersetzung, das bidirektionale Übersetzungen zwischen 33 Haupt-Sprachen unterstützt und besonderen Fokus auf die Übersetzung zwischen Mandarin und mehreren ethnischen Minderheitensprachen sowie Dialekten legt. Darüber hinaus führen wir Hunyuan-MT-Chimera-7B ein, ein Übersetzungsmodell, das sich an der „langsam denkenden“ Denkweise orientiert und darauf abzielt, unterschiedliche Übersetzungs-Szenarien besser zu bedienen sowie die Leistung des Modells zur Testzeit zu verbessern. Dieses Modell kombiniert mehrere Ausgaben, die von Hunyuan-MT-7B unter verschiedenen Parameterkonfigurationen generiert wurden, und erreicht dadurch eine Leistung, die jener herkömmlicher, auf Chain-of-Thought (CoT) basierender langsamer Denkmodelle überlegen ist. Die Entwicklung unserer Modelle folgt einem ganzheitlichen Trainingsprozess, der speziell für mehrsprachige Übersetzung entworfen wurde: Er beginnt mit einer allgemeinen und auf Übersetzung ausgerichteten Vortrainierung zur Aufbau grundlegender Fähigkeiten, wird fortgesetzt durch eine überwachte Feinabstimmung (Supervised Fine-Tuning, SFT) zur anwendungsspezifischen Anpassung und schließt mit einer fortgeschrittenen Ausrichtung durch Verstärkendes Lernen (Reinforcement Learning, RL) sowie weak-to-strong RL ab. Durch umfassende Experimente zeigen wir, dass sowohl Hunyuan-MT-7B als auch Hunyuan-MT-Chimera-7B alle übersetzungsorientierten Modelle vergleichbarer Größe sowie die meisten aktuellen SOTA-Größemodelle deutlich übertrifft, insbesondere bei der Übersetzung zwischen Mandarin und Minderheitensprachen sowie Dialekten. In der WMT2025-Shared-Task (General Machine Translation) erreichen unsere Modelle eine state-of-the-art-Leistung und belegen den ersten Platz bei 30 von 31 Sprachpaaren. Dieser Erfolg unterstreicht die Robustheit unserer Modelle über eine vielfältige sprachliche Bandbreite hinweg – von hochressourcenreichen Sprachen wie Chinesisch, Englisch und Japanisch bis hin zu sprachlich unterversorgten Sprachen wie Tschechisch, Marathi, Estnisch und Isländisch.
KI mit KI entwickeln
Von der Idee bis zum Start — beschleunigen Sie Ihre KI-Entwicklung mit kostenlosem KI-Co-Coding, sofort einsatzbereiter Umgebung und den besten GPU-Preisen.