
摘要
在面向任务的对话系统中,对话状态跟踪(Dialog State Tracking, DST)的目标是从对话历史中持续监控对话的当前状态。近年来,已有大量基于深度学习的方法被提出用于该任务。尽管这些方法表现出色,但现有的神经网络架构通常设计复杂、概念繁琐,导致在实际生产环境中难以实现、调试与维护。本文提出一种基于BERT的简洁而高效的DST模型。该方法不仅结构简单,还具备多项优势:(a)模型参数数量不随领域本体(ontology)规模的增大而增长;(b)能够在领域本体动态变化的场景下正常运行。实验结果表明,我们的BERT-based模型显著优于以往方法,在标准的WoZ 2.0数据集上取得了新的最先进性能。为进一步提升模型在资源受限系统中的适用性,我们采用知识蒸馏(knowledge distillation)技术对模型进行压缩。最终压缩后的模型在保持与原始模型相当性能的同时,体积缩小为原来的1/8,推理速度提升至原来的7倍。