HyperAIHyperAI

Command Palette

Search for a command to run...

基于话语级注意力机制的双向循环神经网络的对话分析

Chandrakant Bothe Sven Magg Cornelius Weber Stefan Wermter

摘要

最近的研究表明,在对话行为识别中,前导话语的上下文对于分类后续话语非常重要。研究显示,当考虑上下文时,性能会迅速提高。我们提出了一种基于话语级注意力机制的双向循环神经网络(Utt-Att-BiRNN)模型,用于分析前导话语对当前话语分类的重要性。在我们的设置中,双向循环神经网络(BiRNN)接收当前和前导话语的输入集。我们的模型在所使用的语料库上优于仅以前导话语作为上下文的先前模型。本文的另一贡献在于发现每个前导话语中包含的信息量,以用于分类后续话语,并证明基于上下文的学习不仅提高了性能,还增强了分类的信心。我们使用字符级和词级特征来表示话语。结果分别展示了字符特征表示、词特征表示以及两者的集成模型的表现。我们发现,在分类短句时,最近的前导话语具有更高的贡献度。


用 AI 构建 AI

从创意到上线——通过免费 AI 协同编码、开箱即用的环境和最优惠的 GPU 价格,加速您的 AI 开发。

AI 协同编码
开箱即用的 GPU
最优定价

HyperAI Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供