2달 전

事전 훈련된 인코더를 사용한 텍스트 요약

Yang Liu; Mirella Lapata
事전 훈련된 인코더를 사용한 텍스트 요약
초록

Transformer 기반 양방향 인코더 표현(Bidirectional Encoder Representations from Transformers, BERT)은 최근 자연어 처리 작업의 다양한 분야에서 발전을 이룬 사전 훈련된 언어 모델의 최신 형태를 나타냅니다. 본 논문에서는 BERT가 요약 작업에 어떻게 유용하게 적용될 수 있는지를 보여주고, 추출형 및 생성형 모델 모두에 대한 일반적인 프레임워크를 제안합니다. 우리는 문서 수준의 새로운 인코더를 소개하는데, 이는 문서의 의미를 표현하고 그 문장들에 대한 표현을 얻는데 사용됩니다. 우리의 추출형 모델은 이 인코더 위에 여러 개의 문장 간 Transformer 레이어를 쌓아 구축되었습니다. 생성형 요약에 대해서는 인코더와 디코더 사이의 불일치(인코더는 사전 훈련되었지만 디코더는 그렇지 않음)를 완화하기 위해 서로 다른 최적화기를 사용하는 새로운 미세 조정 일정을 제안합니다. 또한 두 단계의 미세 조정 접근법이 생성된 요약의 품질을 더욱 향상시킬 수 있음을 보여줍니다. 세 가지 데이터셋에서 수행한 실험 결과, 우리의 모델은 추출형과 생성형 설정 모두에서 최고 수준의 성능을 달성하였습니다. 우리의 코드는 https://github.com/nlpyang/PreSumm 에서 확인할 수 있습니다.