17일 전

검색을 주의력으로: 단일 트랜스포머 내에서 검색과 독해의 엔드투엔드 학습

Zhengbao Jiang, Luyu Gao, Jun Araki, Haibo Ding, Zhiruo Wang, Jamie Callan, Graham Neubig
검색을 주의력으로: 단일 트랜스포머 내에서 검색과 독해의 엔드투엔드 학습
초록

지식 집약적인 작업, 예를 들어 개방형 도메인 질의응답(QA)을 위한 시스템은 일반적으로 두 단계로 구성된다. 첫째, 대규모 코퍼스에서 관련 문서를 효율적으로 검색하는 단계이며, 둘째, 선택된 문서를 세부적으로 읽어 답변을 생성하는 단계이다. 보통 검색기(retriever)와 독해기(reader)는 별도로 모델링되며, 이는 복잡한 구현을 필요로 하며 종단 간(end-to-end) 학습과 적응이 어렵게 만든다. 본 논문에서는 이러한 설계를 재검토하고, 별도의 아키텍처와 학습 방식을 버리고, 하나의 트랜스포머 모델을 사용하여 '검색을 주의(attention)로 수행하는(ReAtt)' 방식을 제안하며, 최종 QA 작업의 supervision만을 기반으로 종단 간 학습을 수행한다. 우리는 처음으로 종단 간에 하나의 모델만으로 학습함으로써 경쟁 수준의 검색 성능과 QA 성능을 동시에 달성할 수 있음을 입증한다. 이 모델은 별도로 학습된 최첨단 검색기 및 독해기와 비교해도 동등하거나 약간 뛰어난 성능을 보인다. 더불어, 종단 간 적응은 감독 학습 및 비감독 학습 설정에서 모두 도메인 외(out-of-domain) 데이터셋에서 성능을 크게 향상시킨다. 이로써 본 모델은 지식 집약적 작업에 대한 간단하고 유연한 해결책이 될 수 있다. 코드와 모델은 https://github.com/jzbjyb/ReAtt 에서 제공된다.

검색을 주의력으로: 단일 트랜스포머 내에서 검색과 독해의 엔드투엔드 학습 | 최신 연구 논문 | HyperAI초신경