Ein zweistufiges tiefes Netzwerk für die Rekonstruktion von Hochdynamic-Bildern

Die Abbildung eines einzelnen Bildes mit niedriger Dynamik (LDR) auf ein Bild mit hoher Dynamik (HDR) gilt als eine der anspruchsvollsten Aufgaben im Bereich der Bild-zu-Bild-Übersetzung aufgrund von durch die Belichtung bedingten fehlenden Informationen. Diese Studie greift die Herausforderungen der Abbildung von LDR zu HDR in einem einzigen Schritt an, indem sie ein neuartiges zweistufiges tiefes Netzwerk vorschlägt. Besonders hervorzuheben ist, dass das vorgeschlagene Verfahren darauf abzielt, ein HDR-Bild ohne Kenntnis von Hardwareinformationen wie der Kameraantwortfunktion (CRF) und den Belichtungseinstellungen zu rekonstruieren. Daher beabsichtigen wir, in der ersten Stufe Aufgaben zur Bilderhöhung wie Rauschunterdrückung und Belichtungskorrektur durchzuführen. Zudem lernt die zweite Stufe unseres tiefen Netzwerks Tonabbildung und Bit-Erweiterung aus einer konvexen Menge von Datensamples. Qualitative und quantitative Vergleiche zeigen, dass das vorgeschlagene Verfahren bestehende Arbeiten im Bereich LDR zu HDR bei einem geringen Unterschied übertrifft. Darüber hinaus haben wir einen LDR-Bild-Datensatz erstellt, der verschiedene Kamerasysteme umfasst. Die Auswertung mit unseren gesammelten realweltlichen LDR-Bildern verdeutlicht, dass das vorgeschlagene Verfahren plausible HDR-Bilder rekonstruieren kann, ohne visuelle Artefakte zu erzeugen. Quellcode verfügbar: https://github.com/sharif-apu/twostageHDR_NTIRE21.