
초록
관계 분류는 실체들 사이의 관계를 추출하는 중요한 자연어 처리(NLP) 작업입니다. 최신의 관계 분류 방법은 주로 합성곱 신경망(Convolutional Neural Networks) 또는 순환 신경망(Recurrent Neural Networks)을 기반으로 합니다. 최근에 사전 훈련된 BERT 모델은 많은 NLP 분류 및 시퀀스 라벨링 작업에서 매우 성공적인 결과를 달성하였습니다. 그러나 관계 분류는 이러한 작업들과 다르게 문장 정보와 두 대상 실체의 정보 모두에 의존합니다. 본 논문에서는 사전 훈련된 BERT 언어 모델을 활용하고, 대상 실체들의 정보를 통합하여 관계 분류 작업을 수행하는 모델을 제안합니다. 우리는 대상 실체들을 위치시키고, 사전 훈련된 아키텍처를 통해 정보를 전달하며, 두 실체에 해당하는 인코딩을 통합합니다. 이 방법으로 SemEval-2010 태스크 8 관계 데이터셋에서 기존 최신 방법보다 유의미한 개선을 이루어냈습니다.