
摘要
近年来,机器学习中使用个人可识别信息所引发的隐私问题日益受到关注。然而,以往的图像抠图方法均基于可识别的人像图像,存在隐私泄露风险。为填补这一空白,本文提出了P3M-10k,这是首个面向隐私保护人像抠图的大规模匿名化基准数据集。P3M-10k包含10,000张高分辨率人脸模糊的人像图像及其高质量的Alpha蒙版。我们系统地在P3M-10k上评估了无需Trimap和基于Trimap的抠图方法,发现现有方法在遵循“隐私保护训练”(Privacy-Preserving Training, PPT)设置下——即在人脸模糊图像上训练、在任意图像上测试——展现出不同的泛化能力。为构建更优的无Trimap人像抠图模型,我们提出了P3M-Net,该模型采用统一框架同时实现语义感知与细节抠图,并特别强调二者之间的交互机制以及与编码器的协同作用,以提升抠图效果。在P3M-10k上的大量实验表明,P3M-Net在客观指标和主观视觉质量方面均优于当前最先进的方法。此外,该模型在PPT设置下仍表现出良好的泛化性能,充分验证了P3M-10k在推动未来研究及支持潜在实际应用方面的价值。项目代码与数据集已开源,地址为:https://github.com/JizhiziLi/P3M