
초록
본 연구에서는 엔드투엔드 공동참조 해결(End-to-End Coreference Resolution, E2E-CR) 성능 향상을 위해 문장 간 종속 관계를 학습하는 워드 임베딩 모델을 제안한다. 기존의 E2E-CR 모델은 입력 문서나 대화의 각 문장을 별도로 처리하며, 장기 단기 기억(LSTM, Long Short-Term Memory) 순환 신경망을 적용하여 단어 표현을 생성하지만, 본 연구에서는 선형 문장 연결(Linear Sentence Linking) 및 주의 기반 문장 연결(Attentional Sentence Linking) 모델을 제안하여 문장 간 종속 관계를 학습한다. 두 가지 문장 연결 전략은 현재 입력 단어의 표현을 계산할 때, 맥락 문장들로부터 유용한 정보를 활용할 수 있도록 LSTM에 기회를 제공한다. 이와 같은 접근 방식을 통해 LSTM은 현재 문장뿐 아니라 전체 입력 문서로부터의 지식도 고려한 단어 임베딩을 학습하게 된다. 실험 결과, 문장 간 종속 관계를 학습함으로써 단어 표현에 담긴 정보가 풍부해지고, 기준 모델 대비 공동참조 해결 모델의 성능이 향상됨을 확인할 수 있었다.