
초록
요약문은 원문의 의미를 변경해서는 안 된다. 이를 가장 효과적으로 달성하는 방법은 텍스트 추상화를 가능하게 하면서도 복사량을 늘리는 것이다. 인간 편집자는 일반적으로 복사에 대한 통제력을 갖추고 있어, 추출적 요약과 생성적 요약 사이에서 다양한 균형을 유지할 수 있다. 그러나 현대의 신경망 기반 생성적 요약 모델이 동일한 유연성을 제공할 수 있는지에 대해서는 여전히 잘 이해되지 않고 있다. 즉, 단일 참조 요약문에서 학습하여 복사 정도가 다른 다양한 요약 가설을 생성할 수 있는지 여부가 불명확하다. 본 논문에서는 단일 인간 요약문에서 학습함으로써 순수하게 추출적인 요약부터 매우 생성적인 요약에 이르기까지 광범위한 스펙트럼의 요약을 생성할 수 있는 신경망 요약 모델을 제안한다. 우리는 요약 작업을 언어 모델링 문제로 포지셔닝하고, 요약 가설을 생성하기 위한 다양한 메커니즘을 활용한다. 제안하는 방법은 신경망 요약 모델의 학습 단계와 디코딩 단계 모두에서 복사량에 대한 제어를 가능하게 한다. 광범위한 실험을 통해 본 방법이 원문 그대로의 복사량을 조절하는 데 중요한 의미를 지닌다는 것을 입증하며, 강력한 기준 모델들에 비해 경쟁력 있는 성능을 달성하였다. 또한 분석을 통해 흥미롭고 직관적이지 않은 중요한 사실들을 밝혀냈다.