2달 전

다중 턴 대화에서 응답 선택을 위한 두 단계 감독 대비 학습

Wentao Zhang; Shuang Xu; Haoran Huang
다중 턴 대화에서 응답 선택을 위한 두 단계 감독 대비 학습
초록

다중 턴 대화에서 여러 후보 중 적절한 응답을 선택하는 것은 검색 기반 대화 시스템의 핵심 문제입니다. 기존 연구에서는 이 작업을 발화와 후보 간의 일치성을 판단하는 문제로 정식화하고, 모델 학습에 교차 엔트로피 손실 함수를 사용하였습니다. 본 논문은 감독된 대조적 손실 함수(supervised contrastive loss)를 활용하여 이 문제에 대조적 학습(contrastive learning)을 적용하였습니다. 이를 통해 양성 예제와 음성 예제의 학습된 표현이 임베딩 공간에서 더 멀리 분리될 수 있으며, 일치성 판단 성능이 향상될 수 있습니다. 우리는 이를 한 단계 더 발전시켜, 두 단계 감독된 대조적 학습(two-level supervised contrastive learning)이라는 새로운 방법론을 개발하였으며, 이를 다중 턴 대화의 응답 선택에 적용하였습니다. 제안된 방법론은 두 가지 기술인 문장 토큰 셔플링(sentence token shuffling, STS)과 문장 재정렬(sentence re-ordering, SR)을 활용하여 감독된 대조적 학습을 수행합니다. 세 가지 벤치마크 데이터셋에서의 실험 결과는 제안된 방법론이 대조적 학습 기준모델과 최신 방법론들보다 유의미하게 우수한 성능을 보임을 입증하였습니다.

다중 턴 대화에서 응답 선택을 위한 두 단계 감독 대비 학습 | 최신 연구 논문 | HyperAI초신경