
摘要
在对话系统中,语句在不同语境下可能表现出相似的语义但截然不同的情感。因此,建模具有说话人依赖性的长距离上下文情感关系,在对话情感识别中具有至关重要的作用。与此同时,区分不同情感类别也颇具挑战,因为它们通常具有语义相近的情感倾向。为此,我们采用监督对比学习(supervised contrastive learning),使各类情感之间相互排斥,从而更有效地识别语义相近的情感。此外,我们引入辅助的响应生成任务,以增强模型对上下文信息的处理能力,进而促使模型在不同语境下准确识别语义相似但情感各异的表达。为实现上述目标,我们选用预训练的编码器-解码器模型 BART 作为骨干网络,因其在理解与生成任务中均表现出色。在四个数据集上的实验结果表明,所提出的模型在对话情感识别任务中显著优于当前最先进的模型。消融实验进一步验证了监督对比损失与生成损失的有效性。