2달 전
Deconvolution-Based Global Decoding for Neural Machine Translation 기반 역권화를 이용한 신경망 기계 번역의 전역 해독
Junyang Lin; Xu Sun; Xuancheng Ren; Shuming Ma; Jinsong Su; Qi Su

초록
신경 기계 번역(Neural Machine Translation, NMT)을 위한 많은 시퀀스-투-시퀀스(Seq2Seq) 모델이 순환 신경망(Recurrent Neural Network, RNN)을 채택하여 번역을 단어별로 순차적으로 생성합니다. 언어학 연구는 언어가 단순히 선형 단어 시퀀스가 아니라 복잡한 구조의 시퀀스임을 입증하였으며, 각 단계에서의 번역은 전체 목표 측 문맥에 조건부로 이루어져야 합니다. 이 문제를 해결하기 위해 우리는 목표 시퀀스의 문맥 구조 예측을 안내로 사용하여 시퀀스를 디코딩하는 새로운 NMT 모델을 제안합니다. 우리의 모델은 목표 측 문맥의 구조 예측에 기반하여 번역을 생성하므로, 번역이 순차적 순서에 얽매이지 않도록 할 수 있습니다. 실험 결과는 우리의 모델이 최신 방법들과 비교해 더 경쟁력 있다는 것을 보여주며, 분석은 또한 우리 모델이 다양한 길이의 문장을 번역하는 데 견고하며, 목표 측 문맥으로부터 디코딩 지침을 받아 반복성을 줄인다는 것을 반영하고 있습니다.