12일 전
다중 시점 및 다중 작업 학습을 통한 RST 논리 구조 파서
{Anders S{\o}gaard, Barbara Plank, Chlo{\'e} Braud}

초록
우리는 RST 담론 트리 예측을 위한 LSTM 네트워크 학습 방법을 다양한 방식으로 실험한다. RST 담론 구문 분석의 주요 과제는 학습 데이터의 양이 제한적이라는 점이다. 이를 극복하기 위해 관련된 다른 작업들로부터의 작업 감독(task supervision)과 담론 구조에 대한 대안적 시각을 활용하여 모델을 정규화한다. 본 연구에서는 단순한 LSTM 순차적 담론 분석기(sequential discourse parser)가 다중 시각(multi-view)과 다중 작업(multi-task) 프레임워크를 효과적으로 활용함으로써 기준 모델 대비 12~15%의 오류 감소(측정 지표에 따라 다름)를 달성하며, 보다 복잡한 최신 기술 수준의 분석기들과 경쟁 가능한 성능을 보인다는 것을 보여준다.