Supervised Descent Method und ihre Anwendungen auf die Gesichtsalignment

Viele Probleme der Computer Vision (z. B. Kamerakalibrierung, Bildausrichtung, Struktur aus Bewegung) werden durch nichtlineare Optimierungsverfahren gelöst. Es gilt allgemein als akzeptiert, dass zweite Ordnung absteigende Methoden die robustesten, schnellsten und zuverlässigsten Ansätze für die nichtlineare Optimierung einer allgemeinen glatten Funktion darstellen. In der Domäne der Computer Vision weisen zweite Ordnung absteigende Methoden jedoch zwei Hauptnachteile auf: (1) Die Funktion ist möglicherweise nicht analytisch differenzierbar, und numerische Approximationen sind praktisch nicht durchführbar. (2) Die Hesse-Matrix kann groß sein und nicht positiv definit. Um diese Probleme zu bewältigen, schlägt dieser Artikel einen überwachten Abstiegsverfahren (Supervised Descent Method, SDM) zur Minimierung einer nichtlinearen Kleinste-Quadrate-Funktion (Non-linear Least Squares, NLS) vor. Während des Trainings lernt die SDM eine Folge von Abstiegsrichtungen, die den Mittelwert der NLS-Funktionen minimiert, die an verschiedenen Punkten abgetastet werden. Im Testphase minimiert die SDM das NLS-Optimierungsproblem unter Verwendung der gelernten Abstiegsrichtungen, ohne die Jacobimatrix oder die Hesse-Matrix berechnen zu müssen. Wir veranschaulichen die Vorteile unseres Ansatzes anhand synthetischer und realer Beispiele und zeigen, dass die SDM bei der Aufgabe der Gesichtsmerkmalserkennung eine Stand der Technik-Leistung erreicht. Der Quellcode ist unter www.humansensing.cs.cmu.edu/intraface verfügbar.