Verbesserung der Gesichtserkennung durch 3D-Virtuelle Synthese

Die Erkennung von Gesichtstäuschungen ist für die Sicherheit von Gesichtserkennungssystemen entscheidend. Lernbasierte Methoden, insbesondere solche, die auf tiefem Lernen basieren, benötigen große Mengen an Trainingsdaten, um das Überanpassen zu reduzieren. Allerdings ist die Beschaffung von Täuschungsdaten sehr kostspielig, da lebende Gesichter in vielen Perspektiven neu gedruckt und erfasst werden müssen. In dieser Arbeit stellen wir eine Methode vor, um virtuelle Täuschungsdaten im dreidimensionalen Raum zu synthetisieren, um dieses Problem zu lindern. Insbesondere betrachten wir ein gedrucktes Foto als ebene Fläche und transformieren es in ein 3D-Objekt, das dann zufällig im dreidimensionalen Raum verbogen und gedreht wird. Anschließend wird das transformierte 3D-Foto durch perspektivische Projektion als virtuelles Beispiel gerendert. Die synthetisierten virtuellen Beispiele können die Anti-Täuschungsleistung erheblich verbessern, wenn sie mit einer vorgeschlagenen Datenausgleichsstrategie kombiniert werden. Unsere vielversprechenden Ergebnisse eröffnen neue Möglichkeiten zur Förderung der Gesichtstäuschungserkennung durch preisgünstige und groß angelegte synthetische Daten.