
要約
神経機械翻訳の一般的なアプローチは、双方向LSTM(Long Short-Term Memory)を使用してソース文をエンコードすることに依存しています。本論文では、畳み込み層の連続に基づくより高速で単純なアーキテクチャを提案します。これにより、再帰型ネットワークのように時間的な依存関係によって計算が制約されるのとは異なり、ソース文全体を同時にエンコードすることが可能になります。WMT'16英語-ルーマニア語翻訳タスクにおいて、我々の手法は最先端の方法と競合する精度を達成し、WMT'15英語-ドイツ語タスクでは最近発表されたいくつかの結果を上回っています。また、WMT'14英語-フランス語翻訳タスクにおいても、非常に深いLSTM構成とほぼ同等の精度を達成しています。我々の畳み込みエンコーダーは、強力な双方向LSTMベースラインと同等かそれ以上の精度でCPUデコーディングを2倍以上高速化します。