16 天前

对话式迁移学习在情感识别中的应用

Devamanyu Hazarika, Soujanya Poria, Roger Zimmermann, Rada Mihalcea
对话式迁移学习在情感识别中的应用
摘要

在对话中识别情感是一项具有挑战性的任务,其难点在于情感表达受到自我与人际间多重因素共同作用所形成的上下文依赖关系的影响。近年来,研究主要通过监督学习方法建模这些依赖关系,但纯监督方法通常需要大量标注数据,而当前大多数相关语料库中此类标注数据严重不足。为应对这一挑战,我们探索了迁移学习作为一种可行的替代方案。鉴于现有大量可获取的对话数据,我们进一步考察了能否利用生成式对话模型,将其中蕴含的情感知识迁移到上下文情感识别任务中。为此,我们提出一种名为TL-ERC的方法:首先在多轮对话数据(源任务)上预训练一个分层对话模型,随后将该模型的参数迁移至对话情感分类器(目标任务)中。与当前普遍采用预训练句子编码器的做法不同,我们的方法还引入了循环神经网络参数,以建模整个对话中句子之间的上下文关系。基于这一思路,我们在多个数据集上进行了实验,结果表明,该方法在性能和对小样本训练数据的鲁棒性方面均有显著提升。此外,TL-ERC在更少的训练轮次内即可达到更优的验证性能。综上所述,我们得出结论:从对话生成模型中学习到的知识确实有助于提升对话中情感识别的准确性和有效性。