2달 전

전역-로컬 메모리 포인터 네트워크를 이용한 과제 지향 대화

Chien-Sheng Wu; Richard Socher; Caiming Xiong
전역-로컬 메모리 포인터 네트워크를 이용한 과제 지향 대화
초록

목적 지향 대화의 end-to-end 처리는 지식 기반이 일반적으로 크고, 동적이며 학습 프레임워크에 통합하기 어려운 경우가 많기 때문에 도전적입니다. 이 문제를 해결하기 위해 우리는 글로벌-투-로컬 메모리 포인터(GLMP) 네트워크를 제안합니다. 우리의 모델에서는 글로벌 메모리 인코더와 로컬 메모리 디코더를 제안하여 외부 지식을 공유합니다. 인코더는 대화 역사 정보를 인코딩하고, 글로벌 컨텍스트 표현을 수정하며, 글로벌 메모리 포인터를 생성합니다. 디코더는 먼저 빈 슬롯이 있는 스케치 응답을 생성한 후, 글로벌 메모리 포인터를 전달하여 관련 정보를 필터링하고, 로컬 메모리 포인터를 통해 슬롯을 실체화합니다. 우리는 경험적으로 우리의 모델이 복사 정확도를 향상시키고 일반적인 어휘 외 문제(out-of-vocabulary problem)를 완화할 수 있음을 보였습니다. 그 결과, GLMP는 시뮬레이션된 bAbI 대화 데이터셋과 인간-인간 스탠퍼드 다중 영역 대화 데이터셋에서 자동 평가와 인간 평가 모두에서 이전 최신 모델들보다 성능을 개선할 수 있었습니다.

전역-로컬 메모리 포인터 네트워크를 이용한 과제 지향 대화 | 최신 연구 논문 | HyperAI초신경