
초록
문서에서 엔터티 수준의 관계 추출을 위한 공동 모델을 제안한다. 기존의 접근 방식은 문장 내 언급 쌍에 국한되어 있으며, 이에 따라 언급 수준의 레이블링이 필요하지만, 본 모델은 엔터티 수준에서 작동한다. 이를 위해 공명 해결(coreference resolution)을 기반으로 하며, 전역적 엔터티 정보와 국소적 언급 정보를 결합한 다수준 표현을 활용한 다중 인스턴스 학습을 통해 관련 신호를 통합하는 다중 작업(multi-task) 접근법을 채택한다. 제안 모델은 DocRED 데이터셋에서 최신 기준(SOTA) 성능을 달성하였으며, 향후 연구를 위한 첫 번째 엔터티 수준의 엔드투엔드(end-to-end) 관계 추출 결과를 보고한다. 마지막으로 실험 결과는 공동 학습 접근법이 특정 작업에 특화된 학습과 비슷한 성능을 보이지만, 공유 파라미터와 학습 단계로 인해 더 효율적임을 시사한다.