2달 전

HLATR: 하이브리드 리스트 인식 트랜스포머 재순위 결정을 활용한 다단계 텍스트 검색 강화

Yanzhao Zhang; Dingkun Long; Guangwei Xu; Pengjun Xie
HLATR: 하이브리드 리스트 인식 트랜스포머 재순위 결정을 활용한 다단계 텍스트 검색 강화
초록

깊은 사전 학습 언어 모델(예: BERT)은 대규모 텍스트 검색 작업에서 효과적입니다. 최신의 성능을 자랑하는 기존 텍스트 검색 시스템들은 사전 학습 언어 모델의 높은 계산 비용과 큰 코퍼스 크기 때문에, 일반적으로 검색 후 재순위 결정(retrieve-then-reranking) 구조를 채택하고 있습니다. 이러한 다단계 구조 하에서, 이전 연구들은 주로 프레임워크의 단일 단계를 최적화하는 데 초점을 맞추어 전체적인 검색 성능을 개선하였습니다. 그러나, 다단계 특성을 직접 결합하여 최적화하는 방법에 대해서는 충분히 연구되지 않았습니다. 본 논문에서는 검색 및 재순위 결정 단계의 특성을 모두 통합하기 위해 후속 재순위 결정 모듈인 하이브리드 리스트 인식 트랜스포머 재순위 결정(Hybrid List Aware Transformer Reranking, HLATR)을 설계하였습니다. HLATR은 경량화되어 있으며, 기존 텍스트 검색 시스템들과 쉽게 병렬 처리할 수 있어 단일하면서도 효율적인 처리가 가능합니다. 두 개의 대규모 텍스트 검색 데이터셋에 대한 경험적 실험 결과, HLATR이 기존 다단계 텍스트 검색 방법들의 순위 결정 성능을 효율적으로 개선할 수 있음을 보여주었습니다.

HLATR: 하이브리드 리스트 인식 트랜스포머 재순위 결정을 활용한 다단계 텍스트 검색 강화 | 최신 연구 논문 | HyperAI초신경