
摘要
本文提出了一种新型的互学习自适应模型(Mutual Learning to Adapt, MuLA),用于联合人体解析与姿态估计任务。该模型能够有效挖掘两项任务之间的相互促进作用,同步提升两者的性能表现。与现有基于后处理或传统多任务学习的方法不同,MuLA通过递归地利用并行任务之间的引导信息,动态预测任务特定的模型参数。这一机制使MuLA能够快速适应人体解析与姿态估计模型,通过融合彼此的特征信息,生成更具表达能力的表征,从而获得更加鲁棒且精确的输出结果。MuLA基于卷积神经网络构建,支持端到端训练。在LIP和扩展的PASCAL-Person-Part两个基准数据集上的大量实验表明,所提出的MuLA模型在性能上显著优于现有的主流基线方法,充分验证了其有效性与优越性。