Command Palette
Search for a command to run...
ARBEx: Aufmerksame Merkmalsextraktion mit Zuverlässigkeitsausgleich für robustes Gesichtsausdruckslernen
ARBEx: Aufmerksame Merkmalsextraktion mit Zuverlässigkeitsausgleich für robustes Gesichtsausdruckslernen
Azmine Toushik Wasi Karlo Šerbetar Raima Islam Taki Hasan Rafi Dong-Kyu Chae
Zusammenfassung
In dieser Arbeit stellen wir das Framework ARBEx vor, ein neuartiges aufmerksamkeitsgesteuertes Merkmalsextraktionsframework, das von einem Vision Transformer mit Zuverlässigkeitsausgleich getrieben wird, um sich gegen schlechte Klassendistributionen, Verzerrungen und Unsicherheiten bei der Gesichtsausdruckserkennung (FEL) zu wappnen. Wir verstärken mehrere Datenvorverarbeitungs- und -optimierungsmethoden zusammen mit einem fensterbasierten Cross-Attention ViT, um das Beste aus den Daten herauszuholen. Zudem setzen wir lernfähige Ankerpunkte im Einbettungsraum mit Label-Distributionen und einem Multi-Head-Self-Attention-Mechanismus ein, um die Leistung bei schwachen Vorhersagen durch Zuverlässigkeitsausgleich zu optimieren. Dies ist eine Strategie, die Ankerpunkte, Aufmerksamkeitsscores und Konfidenzwerte nutzt, um die Robustheit der Label-Vorhersagen zu erhöhen. Um eine korrekte Label-Klassifikation sicherzustellen und die diskriminierende Kraft der Modelle zu verbessern, führen wir den Anker-Verlust ein, der große Margen zwischen den Ankerpunkten fördert. Zudem spielt der lernfähige Multi-Head-Self-Attention-Mechanismus eine wesentliche Rolle bei der Identifizierung genauer Labels. Dieser Ansatz bietet entscheidende Elemente zur Verbesserung der Zuverlässigkeit von Vorhersagen und hat einen erheblichen positiven Einfluss auf die endgültigen Vorhersagefähigkeiten. Unser adaptives Modell kann in jedes tiefes neuronales Netzwerk integriert werden, um Herausforderungen in verschiedenen Erkennungsaufgaben zu bewältigen. Laut umfangreichen Experimenten in unterschiedlichen Kontexten übertrifft unsere Strategie aktuelle Stand-of-the-Art-Methodologien.