HyperAIHyperAI
vor 2 Monaten

AdaCos: Adaptive Skalierung der Cosinus-Logits für effektives Lernen tiefer Gesichtsdarstellungen

Xiao Zhang; Rui Zhao; Yu Qiao; Xiaogang Wang; Hongsheng Li
AdaCos: Adaptive Skalierung der Cosinus-Logits für effektives Lernen tiefer Gesichtsdarstellungen
Abstract

Die kosinusbasierten Softmax-Verlustfunktionen und ihre Varianten erzielen in der tiefen Lernbasierten Gesichtserkennung große Erfolge. Allerdings haben die Einstellungen von Hyperparametern in diesen Verlustfunktionen einen erheblichen Einfluss auf den Optimierungspfad sowie auf die endgültige Erkennungsleistung. Das manuelle Anpassen dieser Hyperparameter hängt stark von der Benutzererfahrung ab und erfordert viele Trainingsstrategien. In dieser Arbeit untersuchen wir eingehend die Auswirkungen zweier wichtiger Hyperparameter der kosinusbasierten Softmax-Verlustfunktionen, nämlich des Skalierungsparameters und des Winkelabstandsparameters, indem wir analysieren, wie sie die vorhergesagte Klassifikationswahrscheinlichkeit modulieren. Auf Basis dieser Analysen schlagen wir eine neue kosinusbasierte Softmax-Verlustfunktion vor, AdaCos, die hyperparameterfrei ist und einen adaptiven Skalierungsparameter verwendet, um während des Trainingsprozesses automatisch die Trainingsüberwachung zu verstärken. Wir wenden den vorgeschlagenen AdaCos-Verlust auf umfangreiche Gesichtsverifizierungs- und Identifikationsdatensätze an, darunter LFW, MegaFace und IJB-C 1:1 Verifikation. Unsere Ergebnisse zeigen, dass das Training tiefer neuronaler Netze mit dem AdaCos-Verlust stabil ist und eine hohe Gesichtserkennungsgenauigkeit erreichen kann. Unsere Methode übertrifft den aktuellen Stand der Technik in Bezug auf Softmax-Verlustfunktionen bei allen drei Datensätzen.

AdaCos: Adaptive Skalierung der Cosinus-Logits für effektives Lernen tiefer Gesichtsdarstellungen | Neueste Forschungsarbeiten | HyperAI