
摘要
当前基于神经网络的对话状态跟踪模型的延迟问题限制了其在生产系统中的高效部署,尽管这些模型具有很高的准确性。本文提出了一种新的可扩展且准确的神经对话状态跟踪模型,该模型基于Zhong等人最近提出的全局-局部自注意力编码器(Global-Local Self-Attention encoder, GLAD)模型。GLAD模型通过全局模块在不同类型的对话状态(称为槽位)估计器之间共享参数,并通过局部模块学习特定槽位的特征。与GLAD模型中使用的(1 + 槽位数)个具有全局和局部条件的循环神经网络相比,我们提出的模型仅使用一个具有全局条件的循环神经网络,在训练和推理时间上平均减少了35%的延迟,同时保持了信念状态跟踪性能,其中轮次请求准确率为97.38%,联合目标和整体准确率为88.51%。在多域数据集(Multi-WoZ)上的评估也表明,我们的模型在轮次通知和联合目标准确率方面优于GLAD模型。