
초록
신경 기계 번역의 주류 접근 방식은 양방향 LSTM을 사용하여 원문 문장을 인코딩합니다. 본 논문에서는 이에 비해 더 빠르고 간단한 구조, 즉 다수의 컨볼루션 계층을 연속적으로 배치한 아키텍처를 제시합니다. 이는 순환 네트워크와 달리 시간적 종속성을 제약으로 하지 않기 때문에 원문 문장을 동시에 전체적으로 인코딩할 수 있습니다. WMT'16 영어-루마니아어 번역에서 우리는 최신 연구 결과와 경쟁력 있는 정확도를 달성하였으며, WMT'15 영어-독일어 작업에서도 최근 발표된 여러 결과를 능가하였습니다. 또한 우리의 모델들은 WMT'14 영어-프랑스어 번역에서 매우 깊은 LSTM 설정과 거의 동등한 정확도를 얻었습니다. 우리의 컨볼루션 인코더는 강력한 양방향 LSTM 베이스라인과 같은 또는 그 이상의 정확도를 유지하면서 CPU 디코딩 속도를 두 배 이상 높였습니다.