Edinburgh-Neuronale Maschinelle Übersetzungssysteme für WMT 16

Wir nahmen am gemeinsamen Übersetzungsauftrag für Nachrichten des WMT 2016 teil, indem wir neuronale Übersetzungsmodelle für vier Sprachpaare erstellten, jeweils in beiden Richtungen trainiert: Englisch<->Tschechisch, Englisch<->Deutsch, Englisch<->Rumänisch und Englisch<->Russisch. Unsere Systeme basieren auf einem Aufmerksamkeits-Encoder-Decoder, wobei wir BPE-Unterwortsegmentierung für die offene Vokabularübersetzung mit einem festen Wortschatz verwenden. Wir experimentierten mit der Verwendung automatischer Rückübersetzungen des monolingualen News-Korpus als zusätzliche Trainingsdaten, umfassender Dropout und zielbidirektionalen Modellen. Alle berichteten Methoden führen zu erheblichen Verbesserungen, und wir beobachten eine Steigerung von 4,3--11,2 BLEU-Punkten im Vergleich zu unseren Baseline-Systemen. Bei der menschlichen Bewertung waren unsere Systeme das (gleichwertig) beste eingeschränkte System in 7 von 8 Übersetzungsrichtungen, an denen wir teilnahmen.