
摘要
最近的研究表明,在对话行为识别中,前导话语的上下文对于分类后续话语非常重要。研究显示,当考虑上下文时,性能会迅速提高。我们提出了一种基于话语级注意力机制的双向循环神经网络(Utt-Att-BiRNN)模型,用于分析前导话语对当前话语分类的重要性。在我们的设置中,双向循环神经网络(BiRNN)接收当前和前导话语的输入集。我们的模型在所使用的语料库上优于仅以前导话语作为上下文的先前模型。本文的另一贡献在于发现每个前导话语中包含的信息量,以用于分类后续话语,并证明基于上下文的学习不仅提高了性能,还增强了分类的信心。我们使用字符级和词级特征来表示话语。结果分别展示了字符特征表示、词特征表示以及两者的集成模型的表现。我们发现,在分类短句时,最近的前导话语具有更高的贡献度。