AdaFace: Qualität adaptiver Margin für die Gesichtserkennung

Die Erkennung in Datensätzen mit niedriger Bildqualität ist herausfordernd, da Gesichtsmerkmale verdeckt und beeinträchtigt sind. Fortschritte bei marginbasierten Verlustfunktionen haben die Unterscheidbarkeit von Gesichtern im Embedding-Raum verbessert. Zudem haben frühere Studien den Einfluss adaptiver Verlustfunktionen untersucht, um schwer klassifizierten („hard“) Beispielen eine größere Bedeutung zuzumessen. In dieser Arbeit führen wir einen weiteren Aspekt der Adaptivität in der Verlustfunktion ein, nämlich die Bildqualität. Wir argumentieren, dass die Strategie, schwer klassifizierte Beispiele zu betonen, an deren Bildqualität angepasst werden sollte. Konkret sollte die relative Bedeutung einfacher oder schwieriger Beispiele auf der Bildqualität des jeweiligen Samples basieren. Wir schlagen eine neue Verlustfunktion vor, die Beispiele unterschiedlicher Schwierigkeit je nach ihrer Bildqualität stärker gewichtet. Unser Ansatz erreicht dies durch eine adaptive Margin-Funktion, indem die Bildqualität mittels Merkmalsnormen approximiert wird. Umfassende Experimente zeigen, dass unsere Methode, AdaFace, die Leistung der Gesichtserkennung im Vergleich zu den Stand der Technik (SoTA) auf vier Datensätzen (IJB-B, IJB-C, IJB-S und TinyFace) verbessert. Der Quellcode und die Modelle sind unter https://github.com/mk-minchul/AdaFace verfügbar.