End-to-End differenzierbares Lernen zur HDR-Bildsynthese für Mehrbelichtungsbilder

Kürzlich wurde die Rekonstruktion von Hochdynamikbereichsbildern (HDR) auf Basis eines mehrfachen Belichtungsstapels aus einer gegebenen einzelnen Belichtung durch ein tiefes Lernframework ermöglicht, um hochwertige HDR-Bilder zu generieren. Diese herkömmlichen Netzwerke konzentrieren sich auf die Aufgabe der Belichtungstransfer, um den mehrfachen Belichtungsstapel zu rekonstruieren. Daher scheitern sie oft daran, den mehrfachen Belichtungsstapel in ein wahrnehmungsästhetisches HDR-Bild zu fusionieren, da Umkehrartefakte auftreten. Wir adressieren das Problem der stack-basierten Rekonstruktionsmethoden durch den Vorschlag eines neuartigen Frameworks mit einem vollständig differenzierbaren Prozess des Hochdynamikbereichsbildings (HDRI). Durch die explizite Verwendung eines Verlustes, der das Netzwerkoutput mit dem Referenz-HDR-Bild vergleicht, ermöglicht unser Framework eine stabile Ausbildung eines neuronalen Netzes, das den mehrfachen Belichtungsstapel für HDRI erzeugt. Mit anderen Worten: Unsere differenzierbare HDR-Syntheseschicht unterstützt das tiefe neuronale Netzwerk dabei, mehrfache Belichtungsstapel zu erstellen und dabei die genauen Korrelationen zwischen den Mehrbelichtungsbildern im HDRI-Prozess widerzuspiegeln. Zudem verwendet unser Netzwerk Bildzerlegung und einen rekursiven Prozess, um die Aufgabe des Belichtungstransfers zu erleichtern und sich anpassend auf die Rekursionshäufigkeit zu reagieren. Die experimentellen Ergebnisse zeigen, dass das vorgeschlagene Netzwerk sowohl bei den Aufgaben des Belichtungstransfers als auch beim gesamten HDRI-Prozess quantitativ und qualitativ bessere Ergebnisse als der aktuelle Stand der Technik erzielt.