11일 전

코어퍼런스 해석에서의 일반화에 관하여

Shubham Toshniwal, Patrick Xia, Sam Wiseman, Karen Livescu, Kevin Gimpel
코어퍼런스 해석에서의 일반화에 관하여
초록

공통참조 해결(코어퍼런스 해결)은 데이터셋 도메인과 독립적으로 정의되지만, 대부분의 공통참조 해결 모델은 미지의 도메인으로의 전이 성능이 낮다. 본 연구에서는 다양한 도메인을 대상으로 하는 8개의 공통참조 해결 데이터셋을 통합하여, 기존 모델의 즉시 활용 성능을 평가한다. 이후 세 가지 데이터셋을 혼합하여 학습을 수행한다. 비록 이들 데이터셋은 도메인, 주석 지침, 메타데이터 측면에서 차이를 보이지만, 주석 차이를 보완하기 위해 데이터 증강(data augmentation)을 활용하고, 데이터 양의 불균형을 해소하기 위해 샘플링 기법을 도입하여 이 이질적 데이터 혼합물 위에서 단일 모델을 공동 학습하는 방법을 제안한다. 실험 결과, 제로샷(zero-shot) 설정에서 단일 데이터셋으로만 학습된 모델은 전이 성능이 떨어지는 반면, 공동 학습을 통해 전반적인 성능이 향상되며, 공통참조 해결 모델의 일반화 능력이 개선됨을 확인하였다. 본 연구는 강건한 공통참조 해결을 위한 새로운 벤치마크를 제안하고, 여러 가지 새로운 최고 성능(state-of-the-art) 결과를 도출하였다.

코어퍼런스 해석에서의 일반화에 관하여 | 최신 연구 논문 | HyperAI초신경