
초록
문장 수준의 관계 추출에서 타겟 관계를 예측할 때 문장 내 다른 관계들을 고려하는 것이 유리함을 보여줍니다. 본 연구에서 제안하는 아키텍처는 LSTM 기반 인코더를 사용하여 단일 문장 내 모든 관계에 대한 표현을 동시에 학습합니다. 이후 문맥 표현을 주의 메커니즘(attention mechanism)과 결합하여 최종 예측을 수행합니다. 또한, 여러 관계를 포함하는 문장 데이터셋을 구성하고 본 방법의 성능을 평가하기 위해 Wikidata 지식베이스를 활용합니다. 기준 모델 대비 제안하는 방법은 보류된 관계 집합에 대해 평균 오류 감소율 24를 달성합니다. 실험을 재현하기 위한 코드와 데이터셋은 url{https://github.com/ukplab/}에서 공개됩니다.