
초록
최근 신경망 순위 결정 구조에 많은 관심이 주어졌지만, 이러한 모델의 입력으로 사용되는 용어 표현에는 상대적으로 적은 관심이 쏠렸습니다. 본 연구에서는 사전 학습된 문맥화 언어 모델(ELMo와 BERT)을 임의 문서 순위 결정에 어떻게 활용할 수 있는지 조사하였습니다. TREC 벤치마크를 통한 실험을 통해, 기존의 여러 신경망 순위 결정 구조가 문맥화 언어 모델이 제공하는 추가적인 문맥 정보로부터 이점을 얻을 수 있음을 확인하였습니다. 또한, 우리는 BERT의 분류 벡터를 기존 신경망 모델에 통합하는 공동 접근 방식을 제안하고, 이를 통해 최신 임의 문서 순위 결정 기준선을 능가함을 보여주었습니다. 이 공동 접근 방식을 CEDR(Contextualized Embeddings for Document Ranking)라고 명명하였습니다. 또한, BERT의 최대 입력 길이와 문맥화 언어 모델의 실행 시간 성능 영향 등 이러한 모델을 순위 결정에 사용할 때 발생하는 실용적인 문제들을 다루었습니다.