Relative Uncertainty Learning für die Gesichtsausdruckserkennung

Bei der Gesichtsausdruckserkennung (Facial Expression Recognition, FER) werfen die durch inhärente Störungen wie mehrdeutige Gesichtsausdrücke und inkonsistente Etikettierungen verursachten Unsicherheiten berechtigte Bedenken hinsichtlich der Glaubwürdigkeit der Erkennungsergebnisse auf. Um diese Unsicherheiten zu quantifizieren und gleichzeitig eine hohe Leistungsfähigkeit unter verrauschten Daten zu erzielen, betrachten wir Unsicherheit als einen relativen Begriff und schlagen eine innovative Methode des Unsicherheitslernens namens Relative Uncertainty Learning (RUL) vor. Im Gegensatz zu Ansätzen, die eine Gauß-Verteilung der Unsicherheit für alle Datensätze voraussetzen, implementiert RUL einen zusätzlichen Zweig, der die Unsicherheit aus der relativen Schwierigkeit von Beispielen durch Feature-Mixup lernt. Konkret verwenden wir die Unsicherheiten als Gewichte, um Gesichtsmerkmale zu mischen, und führen eine Add-UP-Verlustfunktion ein, die das Lernen von Unsicherheiten fördert. Die Methode ist einfach zu implementieren und verursacht nur geringfügigen oder gar keinen zusätzlichen Rechenaufwand. Umfangreiche Experimente zeigen, dass RUL sowohl auf realen als auch auf synthetisch verrauschten FER-Datensätzen state-of-the-art-Methoden des Unsicherheitslernens in der FER übertrifft. Darüber hinaus funktioniert RUL auch gut auf anderen Datensätzen wie CIFAR und Tiny ImageNet. Der Quellcode ist unter https://github.com/zyh-uaiaaaa/Relative-Uncertainty-Learning verfügbar.