2달 전

EditNTS: 문장 단순화를 위한 명시적 편집을 통한 신경 프로그래머-인터프리터 모델

Yue Dong; Zichao Li; Mehdi Rezagholizadeh; Jackie Chi Kit Cheung
EditNTS: 문장 단순화를 위한 명시적 편집을 통한 신경 프로그래머-인터프리터 모델
초록

우리는 신경망 프로그래머-인터프리터 접근 방식을 통해 명시적인 편집 작업(추가(ADD), 삭제(DELETE), 유지(KEEP))을 학습하는 첫 번째 문장 단순화 모델을 제시합니다. 현재 대부분의 신경망 문장 단순화 시스템은 기계 번역에서 유래된 시퀀스-투-시퀀스 모델의 변형입니다. 이러한 방법들은 복잡한 문장과 단순화된 문장 쌍으로 훈련되기 때문에 문장 단순화를 부산물로 학습합니다. 반면에, 우리의 신경망 프로그래머-인터프리터는 입력 문장의 특정 부분에 대해 명시적인 편집 작업을 예측하도록 직접 훈련됩니다. 이는 인간이 단순화와 수정을 수행하는 방식과 유사합니다. 우리 모델은 외부 지식 없이 세 가지 벤치마크 텍스트 단순화 말뭉치에서 이전 최고 수준의 신경망 문장 단순화 모델들을 크게 능가하며(SARI: +0.95 WikiLarge, +1.89 WikiSmall, +1.41 Newsela) 인간 평가자들로부터 전반적으로 더 나은且更简单的输出句子를 생성한다고 판단받았습니다.注:最后一句中的“且”在韩文中通常不会出现,可能是中文输入时的误用。正确的韩文应该是“그리고”。因此,修正后的句子如下:우리 모델은 외부 지식 없이 세 가지 벤치마크 텍스트 단순화 말뭉치에서 이전 최고 수준의 신경망 문장 단순화 모델들을 크게 능가하며(SARI: +0.95 WikiLarge, +1.89 WikiSmall, +1.41 Newsela) 인간 평가자들로부터 전반적으로 더 나은 그리고 더 간단한 출력 문장을 생성한다고 판단받았습니다。

EditNTS: 문장 단순화를 위한 명시적 편집을 통한 신경 프로그래머-인터프리터 모델 | 최신 연구 논문 | HyperAI초신경