Deep Recursive HDRI: Inverse Tone Mapping mittels Generative Adversarial Networks

Hochdynamische Bilder enthalten Helligkeitsinformationen der physischen Welt und bieten im Vergleich zu herkömmlichen Bildern mit geringer Dynamik eine realistischere Darstellung. Da die meisten Bilder eine geringe Dynamik aufweisen, bleibt die Wiederherstellung der verlorenen Dynamik aus einem einzigen Bild mit geringer Dynamik weiterhin eine gängige Aufgabe. Wir stellen eine neuartige Methode zur Wiederherstellung der verlorenen Dynamik aus einem einzigen Bild mit geringer Dynamik mittels eines tiefen neuronalen Netzes vor. Die vorgeschlagene Methode ist das erste Framework, das hochdynamische Bilder basierend auf einem geschätzten Stapel mehrerer Belichtungszeiten unter Verwendung einer bedingten generativen adversarialen Netzwerkarchitektur erzeugt. In dieser Architektur trainieren wir das Netzwerk mit einer Zielfunktion, die eine Kombination aus L1-Verlust und generativ adversarialem Verlust darstellt. Zudem weist die Architektur eine vereinfachte Struktur im Vergleich zu bestehenden Netzwerken auf. In den experimentellen Ergebnissen erzeugt das vorgeschlagene Netzwerk einen Stapel mehrerer Belichtungszeiten, bestehend aus realistischen Bildern mit unterschiedlichen Belichtungswerten, und vermeidet dabei Artefakte auf öffentlichen Benchmarks im Vergleich zu bestehenden Methoden. Zudem sind sowohl die geschätzten Stapel mehrerer Belichtungszeiten als auch die hochdynamischen Bilder, die durch die vorgeschlagene Methode erzeugt wurden, signifikant näher an der tatsächlichen Referenz (Ground Truth) als die Ergebnisse anderer state-of-the-art-Algorithmen.