ExpandNet: Ein tiefes Faltungsneuronales Netzwerk für die Hochdynamische-Bereichserweiterung aus Niedrigdynamischen Inhaltsdaten

Hochdynamische Bildgebung (HDR) bietet die Möglichkeit, reale Beleuchtungsverhältnisse abzubilden, im Gegensatz zur traditionellen niedrigdynamischen Bildgebung (LDR), die Schwierigkeiten hat, Bilder mit einem höheren Dynamikumfang korrekt darzustellen. Dennoch ist der Großteil des bildgebenden Inhalts weiterhin nur in LDR verfügbar. In dieser Arbeit wird eine Methode vorgestellt, um aus LDR-Inhalten HDR-Inhalte zu generieren, die auf tiefen Faltungsneuralnetzen (CNNs) basiert und als ExpandNet bezeichnet wird. ExpandNet nimmt LDR-Bilder als Eingabe entgegen und erzeugt Bilder mit einem erweiterten Dynamikumfang in einer end-to-end-Architektur. Das Modell versucht, Informationen zu rekonstruieren, die durch Quantisierung, Abschneiden, Tonabbildung oder Gamma-Korrektur aus dem ursprünglichen Signal verloren gegangen sind. Die hinzugefügten Informationen werden aus gelernten Merkmalen rekonstruiert, da das Netzwerk unter Verwendung eines Datensatzes von HDR-Bildern überwacht trainiert wird. Der Ansatz ist vollständig automatisch und datengebunden; er erfordert keine Heuristiken oder menschliche Expertise. ExpandNet verwendet eine mehrskalige Architektur, die den Einsatz von Upsampling-Schichten vermeidet, um die Bildqualität zu verbessern. Die Methode erzielt quantitative gute Ergebnisse bei verschiedenen Metriken im Vergleich zu Erweiterungs- oder inversen Tonabbildungsoperatoren, auch bei schlecht belichteten Eingaben.