16일 전

마스크된 언어 모델로부터의 약한 지도 학습을 통한 초미세 엔티티 타이핑

Hongliang Dai, Yangqiu Song, Haixun Wang
마스크된 언어 모델로부터의 약한 지도 학습을 통한 초미세 엔티티 타이핑
초록

최근에는 명사구(명사형 명사 및 대명사 포함)를 이름 붙여진 실체 언급만이 아니라 더 풍부하고 초미세 수준의 타입으로 분류하는 초미세 실체 타이핑(ultra-fine entity typing)으로 확장하려는 노력이 이루어지고 있다. 이 초미세 실체 타이핑 작업의 핵심 과제는 인간이 주석한 데이터가 극도로 부족하며, 기존의 원거리 또는 약한 감독 접근법의 주석 능력이 매우 제한적이라는 점이다. 이러한 문제를 해결하기 위해 본 논문에서는 BERT 마스킹 언어 모델(Masked Language Model, MLM)을 활용하여 초미세 실체 타이핑을 위한 학습 데이터를 생성하는 방법을 제안한다. 문장 내 특정 언급(mention)을 입력으로 하여 BERT MLM의 입력을 구성함으로써, 해당 언급의 맥락에 따라 달라지는 하위개념(하이퍼니움, hypernym)을 예측하도록 한다. 이 하이퍼니움은 실체 타입 레이블로 사용될 수 있다. 실험 결과, 자동으로 생성된 이러한 레이블을 활용함으로써 초미세 실체 타이핑 모델의 성능이 상당히 향상됨을 확인하였다. 또한 본 방법이 간단한 타입 매핑을 거친 후 기존의 미세한 수준의 실체 타이핑(task) 개선에도 효과적으로 적용될 수 있음을 보여주었다.

마스크된 언어 모델로부터의 약한 지도 학습을 통한 초미세 엔티티 타이핑 | 최신 연구 논문 | HyperAI초신경