18 天前

一种基于分割VGG-19架构的新型面部情绪识别模型

{Rajeswari Sridhar, M. Sridevi, M. Savithadevi, S. Vignesh}
摘要

近年来,面部情绪识别(Facial Emotion Recognition, FER)因其在生物特征识别、心理疾病检测、人类行为理解及心理画像等领域的广泛应用而受到广泛关注。然而,构建一个准确且鲁棒的FER系统仍面临诸多挑战,主要原因在于多种因素导致情绪之间的泛化能力受限。这些挑战包括面部姿态变化、面部结构异质性、光照条件差异、遮挡、图像分辨率低以及年龄变化等。为应对上述问题,研究者提出了多种方法,例如方向梯度直方图(Histogram of Oriented Gradients, HOG)和局部二值模式(Local Binary Pattern, LBP)直方图等。然而,这些传统方法依赖于人工特征选择,存在效率低、泛化能力有限等问题。卷积神经网络(Convolutional Neural Networks, CNN)的出现有效克服了这一缺陷,凭借其独特的特征提取机制,在FER任务中展现出巨大潜力,显著优于传统模型。本文提出一种新型CNN架构,通过在视觉几何组(Visual Geometry Group, VGG)网络层之间嵌入U-Net分割模块,使网络能够更聚焦于特征图中的关键信息,同时有效抑制冗余信息在VGG层间的传递。该设计增强了模型对重要特征的捕捉能力,提升了整体表征性能。在FER-2013数据集上的实验结果表明,所提模型在单一网络架构中达到了当前最优(State-of-the-Art, SOTA)的识别准确率,显著优于其他主流FER模型。