2달 전

단일어종 데이터를 활용한 신경망 기계 번역 모델의 개선

Rico Sennrich; Barry Haddow; Alexandra Birch
단일어종 데이터를 활용한 신경망 기계 번역 모델의 개선
초록

신경망 기계 번역(Neural Machine Translation, NMT)은 훈련에 병렬 데이터만을 사용하면서 여러 언어 쌍에서 최고 수준의 성능을 달성하였습니다. 한편, 문장 기반 통계적 기계 번역에서 대상 언어 단일 데이터(target-side monolingual data)는 유창성을 향상시키는 데 중요한 역할을 합니다. 본 연구에서는 NMT에서 단일 언어 데이터를 활용하는 방법을 조사합니다. 이전 연구와는 달리, 별도로 훈련된 언어 모델과 NMT 모델을 결합하는 것이 아니라, 인코더-디코더 구조의 NMT 아키텍처가 이미 언어 모델과 동일한 정보를 학습할 수 있는 능력을 가지고 있다는 점에 주목합니다. 우리는 이를 변경하지 않고 단일 언語 데이터로 훈련할 수 있는 전략을 탐구합니다. 자동 역번역(back-translation)과 함께 단일 언어 훈련 데이터를 짝지음으로써 추가적인 병렬 훈련 데이터로 처리할 수 있으며, 이를 통해 WMT 15 영어<->독일어 (+2.8-3.7 BLEU) 및 저자원 IWSLT 14 터키어->영어 (+2.1-3.4 BLEU) 작업에서 상당한 개선 효과를 얻었습니다. 새로운 최고 수준의 결과를 얻게 되었습니다. 또한, 특정 영역 내의 단일 언어 및 병렬 데이터로 미세 조정(fine-tuning)하면 IWSLT 15 영어->독일어 작업에서도 상당한 개선 효과가 있음을 보여주었습니다.

단일어종 데이터를 활용한 신경망 기계 번역 모델의 개선 | 최신 연구 논문 | HyperAI초신경