17일 전

RH-Net: 강화학습과 계층적 관계 탐색을 통한 신경 관계 추출 개선

Jianing Wang
RH-Net: 강화학습과 계층적 관계 탐색을 통한 신경 관계 추출 개선
초록

원거리 지도 학습(Distant Supervision, DS)은 대규모 히우리스틱 레이블링 코퍼스를 생성하는 것을 목표로 하며, 현재 신경망 기반 관계 추출에 널리 활용되고 있다. 그러나 이 방법은 노이즈가 많은 레이블링 문제와 긴 꼬리 분포(long-tail distribution) 문제로 인해 심각한 제약을 받는다. 기존의 다수의 고급 접근법들은 이러한 두 문제를 별도로 다루는 방식을 취하는데, 이는 두 문제 간의 상호작용을 간과하고 있다. 본 논문에서는 강화 학습(Reinforcement Learning)과 계층적 관계 탐색 모듈(Hierarchical Relational Searching module)을 활용하여 관계 추출 성능을 향상시키는 새로운 프레임워크 RH-Net을 제안한다. 강화 학습을 통해 모델이 고품질의 샘플을 선택하도록 유도하고, 계층적 관계 탐색 모듈을 도입하여 데이터가 풍부한 클래스와 데이터가 부족한 클래스 간의 관련 샘플로부터 의미 정보를 공유한다. 반복적인 학습 과정에서 두 모듈은 서로 상호작용하며, 노이즈 레이블링과 긴 꼬리 분포 문제를 동시에 완화한다. 일반적으로 사용되는 NYT 데이터셋에서 실시한 광범위한 실험 결과는 제안한 방법이 기존 최고 수준의 기준 모델들에 비해 유의미한 성능 향상을 보임을 명확히 보여준다.