Myope Modelle – Sind Präsentationsangriffserkennungsmodelle für Gesichter kurz-sichtig?

Präsentationsangriffe stellen wiederkehrende Bedrohungen für biometrische Systeme dar, bei denen Betrüger versuchen, diese Systeme zu umgehen. Menschen nutzen oft Hintergrundinformationen als kontextuelle Hinweise für ihr visuelles System. Im Hinblick auf gesichtsbasierte Systeme wird der Hintergrund jedoch häufig ignoriert, da Modelle zur Erkennung von Gesichtspräsentationsangriffen (Face PAD) meist mit Gesichtsausschnitten trainiert werden. In dieser Arbeit wird eine vergleichende Studie von Face-PAD-Modellen (einschließlich Multi-Task-Learning, adversarialer Training und dynamischer Frame-Auswahl) in zwei Szenarien durchgeführt: mit und ohne Ausschnitte. Die Ergebnisse zeigen, dass die Leistung konsistent besser ist, wenn der Hintergrund in den Bildern vorhanden ist. Die vorgeschlagene Multi-Task-Methode erreicht auf dem ROSE-Youtu-Datensatz deutlich bessere Ergebnisse als der Stand der Technik, mit einer Equal-Error-Rate von 0,2 %. Zudem analysieren wir die Vorhersagen der Modelle mittels Grad-CAM++ mit dem Ziel, zu untersuchen, inwieweit die Modelle auf Hintergrundmerkmale achten, die für die menschliche Inspektion als nützlich bekannt sind. Aus dieser Analyse ergibt sich, dass Hintergrundinformationen nicht für alle Angriffstypen relevant sind. Dies zeigt, dass die Modelle die Nutzung von Hintergrundinformationen nur dann aktivieren, wenn dies erforderlich ist.