17일 전
UnitedQA: 개방형 도메인 질의 응답을 위한 하이브리드 접근법
Hao Cheng, Yelong Shen, Xiaodong Liu, Pengcheng He, Weizhu Chen, Jianfeng Gao

초록
현재까지 개방형 질의응답(open-domain QA)에서 검색-독해자(reading-comprehension) 프레임워크를 기반으로 한 대부분의 최근 연구는 추출형(extractive) 또는 생성형(generative) 독해자 중 하나에 집중해왔다. 본 논문에서는 두 모델의 장점을 결합하기 위한 하이브리드 접근법을 탐구한다. 최근에 개발된 사전 훈련된 신경망 언어 모델을 기반으로 한 추출형 및 생성형 독해자를 개선하기 위해 새로운 기법을 적용하였으며, 적절한 훈련 방법이 기존 최고 성능 모델보다 크게 성능을 향상시킬 수 있음을 확인하였다. 또한, 두 독해자로부터 도출한 답변을 단순히 결합하는 하이브리드 접근법이 추출형과 생성형 답변 추론 전략의 장점을 효과적으로 활용할 수 있음을 실험을 통해 입증하였으며, 단일 모델 및 동질적 앙상블(homogeneous ensembles)보다 우수한 성능을 보였다. 본 연구의 접근법은 NaturalQuestions와 TriviaQA에서 각각 정확도(exact match) 기준으로 기존 최고 성능 모델보다 3.3점과 2.7점 높은 성능을 기록하였다.