Kostenfunktions-Ausrollen bei unüberwachtem optischem Fluss

Steepest descent-Verfahren, die in der tiefen Lernens häufig eingesetzt werden, verwenden die Gradienten als Abstiegsrichtung, entweder direkt oder nach einer Richtungsveränderung mittels Vorbedingung (Preconditioning). In vielen Szenarien ist die Berechnung des Gradienten numerisch schwierig, insbesondere aufgrund komplexer oder nicht differenzierbarer Kostenfunktionen, besonders in der Nähe singulärer Punkte. In dieser Arbeit konzentrieren wir uns auf die Ableitung der Total Variation-Seminorm, die häufig in unsupervised-Kostenfunktionen verwendet wird. Genauer leiten wir einen differenzierbaren Ersatz für die harte L1-Glättungsbeschränkung in einem neuartigen iterativen Verfahren ab, das wir „Cost Unrolling“ nennen. Durch die Produktion genauerer Gradienten während des Trainings ermöglicht unsere Methode präzisere Vorhersagen eines gegebenen DNN-Modells durch verbesserte Konvergenz, ohne die Architektur zu verändern oder die rechnerische Komplexität zu erhöhen. Wir demonstrieren unsere Methode im unsupervised-Optical-Flow-Aufgabenstellung. Indem wir die L1-Glättungsbeschränkung durch unsere unrolled Cost-Funktion im Training eines etablierten Baselines ersetzen, erzielen wir verbesserte Ergebnisse sowohl auf den MPI Sintel- als auch auf den KITTI 2015-unsupervised-Optical-Flow-Benchmarks. Insbesondere reduzieren wir die EPE (Endpoint Error) an verdeckten Pixeln um bis zu 15,82 %, wo die Glättungsbeschränkung dominierend ist, was die Erkennung von viel schärferen Bewegungskanten ermöglicht.