HyperAIHyperAI
vor 18 Tagen

Adaptiv Lernen der Gesichtsausdrucksdarstellung mittels C-F-Etiketten und Distillation

{Hangyu Li; Nannan Wang; Xinpeng Ding; Xi Yang; Xinbo Gao}
Abstract

Die Erkennung von Gesichtsausdrücken ist von großer Bedeutung für die Kriminalistik und die digitale Unterhaltungsindustrie. Unter unbeschränkten Bedingungen weisen bestehende Ausdrucksdatensätze eine starke Klassenungleichverteilung auf, und die Ähnlichkeit zwischen den Ausdrücken ist hoch. Bisherige Methoden versuchen, die Leistung der Gesichtsausdruckserkennung durch tiefere oder breitere Netzwerkarchitekturen zu verbessern, was jedoch zu erhöhten Speicher- und Rechenkosten führt. In diesem Paper stellen wir eine neue adaptive überwachte Zielgröße namens AdaReg-Loss vor, die die Gewichtung der Klassenbedeutung anpasst, um die Klassenungleichverteilung zu mindern und die Unterscheidungskraft der Ausdrucksrepräsentationen zu erhöhen. Inspiriert durch die kognitive Wahrnehmungsweise des Menschen wird eine innovative grob-fein (C-F)-Label-Strategie entwickelt, die das Modell schrittweise von einfachen zu schwierigen, hoch ähnlichen Repräsentationen führt. Auf dieser Grundlage schlagen wir einen neuen Trainingsrahmen namens emotionales Bildungsmechanismus (EEM) vor, der Wissen überträgt und aus einem kenntnisreichen Lehrernetzwerk (KTN) und einem selbstlernenden Schülernetzwerk (STSN) besteht. Konkret integriert das KTN die Ausgaben der groben und feinen Ströme und lernt Ausdrucksrepräsentationen von einfachen zu schwierigen Aufgaben. Unter der Aufsicht des vortrainierten KTN und unter Berücksichtigung bestehender Lernerfahrungen kann das STSN seine Leistungspotenziale maximieren und das ursprüngliche KTN komprimieren. Umfangreiche Experimente auf öffentlichen Benchmarks zeigen, dass die vorgeschlagene Methode gegenüber aktuellen State-of-the-Art-Verfahren überlegene Ergebnisse erzielt: 88,07 % auf RAF-DB, 63,97 % auf AffectNet und 90,49 % auf FERPlus.