
摘要
先前关于从面部表情自动检测疼痛的研究主要集中在基于特定面部肌肉活动的帧级疼痛度量指标,例如Prkachin与Solomon疼痛强度量表(PSPI)。然而,当前疼痛评估的金标准是患者自我报告的视觉模拟量表(VAS)评分,这是一种视频级的测量指标。在本研究中,我们提出了一种多任务多维疼痛模型,旨在直接从视频中预测VAS评分。该模型包含三个阶段:(1)采用VGGFace神经网络模型,训练其预测帧级PSPI值,并引入多任务学习机制,即同时预测各个面部动作单元(Action Units)与PSPI,以提升PSPI的预测性能;(2)使用全连接神经网络,从帧级PSPI预测结果中推断序列级疼痛评分,同样采用多任务学习策略,以学习多维度的疼痛量表,而非仅预测VAS;(3)通过最优线性组合多个维度的疼痛预测结果,获得最终的VAS估计值。在UNBC-McMaster肩部疼痛数据集上的实验表明,所提出的多任务多维疼痛方法达到了当前最优性能,平均绝对误差(MAE)为1.95,组内相关系数(ICC)为0.43。尽管该性能仍略逊于数据集中提供的人工观察者预测结果,但当我们将模型预测结果与人工评估结果进行平均时,其MAE可由1.76进一步降低至1.58,显示出显著的互补优势。该模型仅在UNBC-McMaster数据集上进行训练,并直接应用于另一独立数据集——术后阑尾切除术体格检查期间采集的面部视频,无需额外训练或微调,其在受试者工作特征曲线下面积(AUC)指标上相比先前方法提升了6%,验证了其良好的泛化能力与实用性。