2달 전
RNN 인코더-디코더를 사용한 통계적 기계 번역을 위한 구문 표현 학습
Kyunghyun Cho; Bart van Merrienboer; Caglar Gulcehre; Dzmitry Bahdanau; Fethi Bougares; Holger Schwenk; Yoshua Bengio

초록
본 논문에서는 두 개의 순환 신경망(RNN)으로 구성된 새로운 신경망 모델인 RNN 인코더-디코더를 제안합니다. 하나의 RNN은 기호 시퀀스를 고정 길이 벡터 표현으로 인코딩하고, 다른 하나는 해당 표현을 다른 기호 시퀀스로 디코딩합니다. 제안된 모델의 인코더와 디코더는 소스 시퀀스가 주어졌을 때 대상 시퀀스의 조건부 확률을 최대화하도록 공동으로 훈련됩니다. RNN 인코더-디코더가 계산한 문구 쌍의 조건부 확률을 기존 로그-선형 모델에 추가적인 특성으로 사용함으로써, 통계적 기계 번역 시스템의 성능이 경험적으로 향상되는 것을 확인하였습니다. 질적으로, 제안된 모델이 언어 문구의 의미론적 및 구문론적 의미 있는 표현을 학습하는 것을 보여주었습니다.