2ヶ月前
基于デコンボリューションのニューラル機械翻訳の全解码
Junyang Lin; Xu Sun; Xuancheng Ren; Shuming Ma; Jinsong Su; Qi Su

要約
ニューラルマシン翻訳(NMT)のためのシーケンス・トゥ・シーケンス(Seq2Seq)モデルの大部分は、逐次的な順序に従って翻訳語を一つずつ生成するために再帰型ニューラルネットワーク(RNN)を採用しています。言語学の研究が示しているように、言語は単なる線形の単語列ではなく、複雑な構造を持つシーケンスであるため、各ステップでの翻訳は全体的なターゲット側コンテキストに基づいて行われるべきです。この問題に対処するため、我々はターゲットシーケンスのコンテキストの構造予測によってシーケンスをデコードする新しいNMTモデルを提案します。当該モデルは、ターゲット側コンテキストの構造予測に基づいて翻訳を生成するため、逐次的な順序からの制約から解放されます。実験結果は、我々のモデルが最先端手法と比較してより競争力があることを示しており、分析では異なる長さの文に対する翻訳の堅牢性も確認され、さらにターゲット側コンテキストからの指示によりデコーディング時の繰り返しも減少することが示されています。