
초록
본 논문에서는 여러 사실을 종합적으로 고려해야 하는 질문 응답 문제를 연구합니다. 우리는 단기(국소적) 및 장기(전체적) 순차적 의존성을 효과적으로 처리하여 여러 사실을 종합적으로 이해할 수 있는 반복 신경망(RNN)의 변형인 쿼리 축소 네트워크(Query-Reduction Network, QRN)를 제안합니다. QRN은 문맥 문장들을 상태 변화 트리거의 시퀀스로 간주하고, 시간이 지남에 따라 각 트리거(문맥 문장)를 관찰하면서 원래의 쿼리를 더 정보가 풍부한 쿼리로 축소합니다. 실험 결과, QRN은 bAbI QA와 대화 작업, 그리고 실제 목표 지향적인 대화 데이터셋에서 최신 성능을 보였습니다. 또한, QRN 구조는 RNN의 시간축에서 병렬화를 가능하게 하여 학습과 추론에 필요한 시간 복잡도를 한 자릿수 이상 줄일 수 있습니다.