GhostFaceNets: Leichtgewichtiges Gesichtserkennungsmodell aus kostengünstigen Operationen
Die Entwicklung von auf Deep Learning basierenden biometrischen Modellen, die auf Geräten mit begrenztem Speicher und rechnerischen Ressourcen eingesetzt werden können, hat sich als erhebliche Herausforderung erwiesen. Bisherige Ansätze haben die Reduktion von Redundanz in Feature-Maps nicht ausreichend berücksichtigt. Die Einführung von Ghost-Modulen stellt hier eine bedeutende Innovation dar. Ghost-Module nutzen eine Reihe kostengünstiger linearer Transformationen, um zusätzliche Feature-Maps aus einer Menge von intrinsischen Merkmalen zu extrahieren, wodurch eine umfassendere Repräsentation der zugrundeliegenden Informationen ermöglicht wird. GhostNetV1 und GhostNetV2, beide auf Ghost-Modulen basierend, bilden die Grundlage einer Reihe leichtgewichtiger Gesichtserkennungsmodelle namens GhostFaceNets. GhostNetV2 erweitert das ursprüngliche GhostNetV1 um eine Aufmerksamkeitsmechanik, um langreichweitige Abhängigkeiten besser erfassen zu können. Die Bewertung von GhostFaceNets anhand verschiedener Benchmarks zeigt, dass diese Modelle eine überlegene Leistung erzielen, während sie eine rechnerische Komplexität von etwa 60–275 MFLOPs aufweisen. Dies ist deutlich geringer als die von State-of-the-Art (SOTA) großen Faltungsneuralen Netzwerken (CNNs), die Hunderte von Millionen FLOPs erfordern können. GhostFaceNets, die mit dem ArcFace-Verlust auf dem verfeinerten MS-Celeb-1M-Datensatz trainiert wurden, erreichen SOTA-Leistung auf allen Benchmarks. Im Vergleich zu vorherigen SOTA-Mobile-CNNs erzielen GhostFaceNets eine erhebliche Verbesserung der Effizienz bei Gesichtsverifizierungsaufgaben. Der Quellcode für GhostFaceNets ist unter folgender Adresse verfügbar: https://github.com/HamadYA/GhostFaceNets.