摘要
语音情感识别(Speech Emotion Recognition, SER)旨在将语音信号分类为不同的情感类别,例如:高兴、愤怒、悲伤和中性。近年来,深度学习技术已被广泛应用于SER任务。本文提出了一种多任务学习(Multi-Task Learning, MTL)框架,基于wav2vec-2.0的端到端深度神经网络模型,实现语音到文本识别与情感分类的联合建模。在IEMOCAP基准数据集上的实验结果表明,所提出的方法在SER任务上达到了当前最优(state-of-the-art)的性能。此外,消融实验进一步验证了所提MTL框架的有效性。