
초록
원거리 지도 학습(Distant Supervision, DS)은 대규모 히우리스틱 레이블링 코퍼스를 생성하는 것을 목표로 하며, 현재 신경망 기반 관계 추출에 널리 활용되고 있다. 그러나 이 방법은 노이즈가 많은 레이블링 문제와 긴 꼬리 분포(long-tail distribution) 문제로 인해 심각한 제약을 받는다. 기존의 다수의 고급 접근법들은 이러한 두 문제를 별도로 다루는 방식을 취하는데, 이는 두 문제 간의 상호작용을 간과하고 있다. 본 논문에서는 강화 학습(Reinforcement Learning)과 계층적 관계 탐색 모듈(Hierarchical Relational Searching module)을 활용하여 관계 추출 성능을 향상시키는 새로운 프레임워크 RH-Net을 제안한다. 강화 학습을 통해 모델이 고품질의 샘플을 선택하도록 유도하고, 계층적 관계 탐색 모듈을 도입하여 데이터가 풍부한 클래스와 데이터가 부족한 클래스 간의 관련 샘플로부터 의미 정보를 공유한다. 반복적인 학습 과정에서 두 모듈은 서로 상호작용하며, 노이즈 레이블링과 긴 꼬리 분포 문제를 동시에 완화한다. 일반적으로 사용되는 NYT 데이터셋에서 실시한 광범위한 실험 결과는 제안한 방법이 기존 최고 수준의 기준 모델들에 비해 유의미한 성능 향상을 보임을 명확히 보여준다.