2달 전
저자원 기계 번역 작업으로 신경망 문법 오류 교정 접근하기
Marcin Junczys-Dowmunt; Roman Grundkiewicz; Shubha Guha; Kenneth Heafield

초록
이전에 문법 오류 교정(GEC)에서 신경망 기반 방법은 구문 기반 통계적 기계 번역(SMT) 베이스라인과 비교하여 최고 수준의 결과를 달성하지 못했습니다. 우리는 신경망 GEC와 저자원 신경망 번역(MT) 사이의 유사성을 보여주고, 저자원 MT에서 여러 방법을 성공적으로 신경망 GEC에 적용하였습니다. 또한 신경망 GEC에서 신뢰할 수 있는 결과를 위한 가이드라인을 설정하고, 대부분의 GEC 환경에서 쉽게 적용할 수 있는 모델 독립적인 방법들을 제안합니다. 제안된 방법에는 소스 측 노이즈 추가, 도메인 적응 기술, GEC 전용 학습 목표, 단일어 데이터를 활용한 전이 학습, 독립적으로 훈련된 GEC 모델과 언어 모델의 앙상블 등이 포함됩니다. 이러한 방법들의 복합적인 효과로 인해, 제안된 신경망 GEC 모델들은 CoNLL-2014 벤치마크에서 이전 최고의 신경망 GEC 시스템보다 10% 이상 M² 점수를 높이고, JFLEG 테스트 세트에서는 5.9% 이상 개선되었습니다. 비신경망 최고 수준 시스템들은 CoNLL-2014 벤치마크에서 2% 이상, JFLEG에서는 4% 이상 뒤처졌습니다.