HyperAIHyperAI

Command Palette

Search for a command to run...

vor 2 Monaten

Technischer Bericht zu Hunyuan-MT

Mao Zheng Zheng Li Bingxin Qu Mingyang Song Yang Du Mingrui Sun Di Wang

Technischer Bericht zu Hunyuan-MT

Abstract

In diesem Bericht stellen wir Hunyuan-MT-7B vor, unser erstes Open-Source-Modell für mehrsprachige Übersetzung, das bidirektionale Übersetzungen zwischen 33 Haupt-Sprachen unterstützt und besonderen Fokus auf die Übersetzung zwischen Mandarin und mehreren ethnischen Minderheitensprachen sowie Dialekten legt. Darüber hinaus führen wir Hunyuan-MT-Chimera-7B ein, ein Übersetzungsmodell, das sich an der „langsam denkenden“ Denkweise orientiert und darauf abzielt, unterschiedliche Übersetzungs-Szenarien besser zu bedienen sowie die Leistung des Modells zur Testzeit zu verbessern. Dieses Modell kombiniert mehrere Ausgaben, die von Hunyuan-MT-7B unter verschiedenen Parameterkonfigurationen generiert wurden, und erreicht dadurch eine Leistung, die jener herkömmlicher, auf Chain-of-Thought (CoT) basierender langsamer Denkmodelle überlegen ist. Die Entwicklung unserer Modelle folgt einem ganzheitlichen Trainingsprozess, der speziell für mehrsprachige Übersetzung entworfen wurde: Er beginnt mit einer allgemeinen und auf Übersetzung ausgerichteten Vortrainierung zur Aufbau grundlegender Fähigkeiten, wird fortgesetzt durch eine überwachte Feinabstimmung (Supervised Fine-Tuning, SFT) zur anwendungsspezifischen Anpassung und schließt mit einer fortgeschrittenen Ausrichtung durch Verstärkendes Lernen (Reinforcement Learning, RL) sowie weak-to-strong RL ab. Durch umfassende Experimente zeigen wir, dass sowohl Hunyuan-MT-7B als auch Hunyuan-MT-Chimera-7B alle übersetzungsorientierten Modelle vergleichbarer Größe sowie die meisten aktuellen SOTA-Größemodelle deutlich übertrifft, insbesondere bei der Übersetzung zwischen Mandarin und Minderheitensprachen sowie Dialekten. In der WMT2025-Shared-Task (General Machine Translation) erreichen unsere Modelle eine state-of-the-art-Leistung und belegen den ersten Platz bei 30 von 31 Sprachpaaren. Dieser Erfolg unterstreicht die Robustheit unserer Modelle über eine vielfältige sprachliche Bandbreite hinweg – von hochressourcenreichen Sprachen wie Chinesisch, Englisch und Japanisch bis hin zu sprachlich unterversorgten Sprachen wie Tschechisch, Marathi, Estnisch und Isländisch.

KI mit KI entwickeln

Von der Idee bis zum Start — beschleunigen Sie Ihre KI-Entwicklung mit kostenlosem KI-Co-Coding, sofort einsatzbereiter Umgebung und den besten GPU-Preisen.

KI-Co-Coding
Sofort einsatzbereit GPUs
Beste Preise
Jetzt starten

Hyper Newsletters

Abonnieren Sie unsere neuesten Updates
Wir werden die neuesten Updates der Woche in Ihren Posteingang liefern um neun Uhr jeden Montagmorgen
Unterstützt von MailChimp
Technischer Bericht zu Hunyuan-MT | Forschungsarbeiten | HyperAI