개인성 일관성 있는 대화를 위한 의미 관계 및 논증 관계 기억 학습

대화 시스템에서 참여도와 일관성 유지가 특히 중요하다. 기존 연구들은 복잡한 네트워크 구조를 활용하여 대화 상대의 성격(persona)을 의도적으로 학습함으로써 대화 시스템의 성능을 향상시켰다. 그러나 이러한 접근법의 한 가지 문제는 보다 많은 애너테이션된 개인화된 텍스트 데이터 코퍼스가 필요하다는 점이다. 또한 이러한 모델들은 일반적으로 다음 발화 예측을 통해 응답을 생성하지만, 전체 대화 흐름에서의 논의 일관성(discourse coherence)을 무시하는 경향이 있다. 이러한 문제를 해결하기 위해 본 연구는 성격 일관성 대화 작업을 위한 의미 관계(entailment)와 논의 관계(discourse relations)를 기억하는 방법을 제안한다. 자연어 추론(Natural Language Inference, NLI) 데이터셋에 포함된 의미 관계 텍스트 쌍을 활용하여 전제(premise)에서 가설(hypothesis)을 생성하는 작업을 통해 잠재적 의미 관계를 외부 기억으로 학습한다. 더불어, 대화 내의 논의 정보를 처리하기 위해 유사한 아키텍처를 가진 내부 기억을 도입한다. 두 기억 공간에 직교성(orthogonality) 제약을 부과함으로써 잠재적 의미 관계가 대화 내용과 독립적으로 유지되도록 한다. 이 두 가지 기억이 협력하여 의미 관계와 논의 표현을 추출함으로써, 일관성과 일관성에 대한 깊이 있는 이해를 가능하게 한다. PersonaChat과 DSTC7-AVSD 두 개의 대규모 공개 데이터셋을 대상으로 수행한 실험 결과, 제안된 방법의 효과성이 입증되었다. 자동 평가와 인간 평가 모두에서 제안 모델이 여러 강력한 기준 모델들보다 성격 일관성과 응답의 논의 일관성 측면에서 우수한 성능을 보였다. 본 연구의 소스 코드는 https://github.com/Chenrj233/LMEDR 에 공개되어 있다.