HyperAIHyperAI
vor 2 Monaten

MTCAE-DFER: Multi-Task Cascaded Autoencoder für die Dynamische Erkennung von Gesichtsausdrücken

Xiang, Peihao ; Wu, Kaida ; Lin, Chaohao ; Bai, Ou
MTCAE-DFER: Multi-Task Cascaded Autoencoder für die Dynamische Erkennung von Gesichtsausdrücken
Abstract

Dieses Papier erweitert die kaskadierte Netzwerkzweige des auf Autoencodern basierenden Mehrfachaufgaben-Lernens (Multi-Task Learning, MTL) für die dynamische Gesichtsausdruckserkennung, genannt Multi-Task Cascaded Autoencoder for Dynamic Facial Expression Recognition (MTCAE-DFER). Der MTCAE-DFER baut ein einsteckbares kaskadiertes Decodermodul, das auf der Vision Transformer (ViT)-Architektur basiert und das Decoderkonzept von Transformers verwendet, um den Multi-Head Attention Modul zu rekonstruieren. Die Decoderausgabe aus der vorherigen Aufgabe dient als Abfrage (Query, Q), die lokale dynamische Merkmale repräsentiert, während die gemeinsame Encoderausgabe des Video Masked Autoencoder (VideoMAE) sowohl als Schlüssel (Key, K) als auch als Wert (Value, V) fungiert, globale dynamische Merkmale darstellend. Diese Konfiguration ermöglicht eine Interaktion zwischen globalen und lokalen dynamischen Merkmalen über verwandte Aufgaben hinweg. Zudem strebt dieser Ansatz an, das Überanpassen komplexer großer Modelle zu reduzieren. Wir nutzen einen auf Autoencodern basierenden kaskadierten Mehrfachaufgaben-Lernansatz, um den Einfluss der dynamischen Gesichtserkennung und der dynamischen Gesichtspunkte auf die dynamische Gesichtsausdruckserkennung zu untersuchen, was die Generalisierungsfähigkeit des Modells verbessert. Nach umfangreichen Abschleifversuchen und Vergleichen mit Stand-of-the-Art-Methoden (SOTA) auf verschiedenen öffentlichen Datensätzen für die dynamische Gesichtsausdruckserkennung wurde sowohl die Robustheit des MTCAE-DFER-Modells als auch die Effektivität der Interaktion zwischen globalen und lokalen dynamischen Merkmalen unter verwandten Aufgaben bewiesen.