
초록
의도 검출과 슬롯 채우기는 대화형 언어 이해(SLU) 시스템을 구축하는 두 가지 주요 작업입니다. 여러 딥러닝 기반 모델이 이러한 작업에서 좋은 결과를 보여주었습니다. 가장 효과적인 알고리즘은 시퀀스 투 시퀀스 모델(또는 "인코더-디코더" 모델)의 구조를 기반으로 하며, 의도와 의미 태그를 별도의 모델 또는 결합 모델을 사용하여 생성합니다. 그러나 대부분의 이전 연구에서는 의도 검출과 슬롯 채우기를 두 개의 별개의 평행한 작업으로 처리하거나, 시퀀스 투 시퀀스 모델을 사용하여 의미 태그와 의도를 모두 생성하였습니다. 이러한 접근 방식 대부분은 두 작업을 모델링하기 위해 하나의 (결합된) 신경망(NN) 기반 모델(인코더-디코더 구조 포함)을 사용하므로, 서로 간의 상호 영향을 충분히 활용하지 못할 수 있습니다. 본 논문에서는 두 관련된 양방향 LSTM(BLSTM)을 사용하여 서로 간의 상호 영향을 고려함으로써 의도 검출과 슬롯 채우기 작업을 결합적으로 수행하는 새로운 바이모델 기반 RNN 의미 프레임 파싱 네트워크 구조를 설계하였습니다. 제안된 바이모델 구조는 디코더와 함께 벤치마크 ATIS 데이터셋에서 최고 수준의 성능을 달성하였으며, 약 0.5%의 의도 정확도 향상과 0.9%의 슬롯 채우기 성능 향상을 보였습니다.