摘要
基于深度学习的生物特征识别模型在内存和计算资源受限设备上的部署,一直面临重大挑战。以往的解决方案并未充分重视特征图冗余的减少问题,而“Ghost模块”的引入在该领域实现了重要突破。Ghost模块通过一系列低成本的线性变换,从一组基础特征中提取出额外的特征图,从而更全面地表征底层信息。基于Ghost模块构建的GhostNetV1与GhostNetV2,构成了轻量级人脸识别模型系列——GhostFaceNets的基础架构。其中,GhostNetV2在原始GhostNetV1的基础上引入了注意力机制,以捕捉长距离依赖关系。在多个基准测试中的评估结果表明,GhostFaceNets在保持卓越性能的同时,仅需约60–275 MFLOPs的计算复杂度,远低于当前主流大型卷积神经网络(CNN)模型所消耗的数亿FLOPs。在经过优化的MS-Celeb-1M数据集上,使用ArcFace损失函数训练的GhostFaceNets在所有基准测试中均达到了当前最优(SOTA)水平。与以往的SOTA移动端CNN模型相比,GhostFaceNets在人脸验证任务中显著提升了计算效率。相关代码已开源,可通过以下链接获取:https://github.com/HamadYA/GhostFaceNets。