
摘要
对话的神经模型依赖于语言的泛化潜在表示。本文介绍了一种新的训练方法,该方法显式地学习多个不同粒度层次的语言表示。多粒度训练算法通过修改负候选响应的采样机制来控制所学潜在表示的粒度。在使用MultiWOZ数据集和Ubuntu对话语料库进行的下一句检索任务中,观察到了显著的性能提升。分析结果显著表明,该方法确实学习了多种粒度的表示,并且多粒度训练有助于更好地迁移到下游任务。
对话的神经模型依赖于语言的泛化潜在表示。本文介绍了一种新的训练方法,该方法显式地学习多个不同粒度层次的语言表示。多粒度训练算法通过修改负候选响应的采样机制来控制所学潜在表示的粒度。在使用MultiWOZ数据集和Ubuntu对话语料库进行的下一句检索任务中,观察到了显著的性能提升。分析结果显著表明,该方法确实学习了多种粒度的表示,并且多粒度训练有助于更好地迁移到下游任务。