Einbild-HDR-Rekonstruktion durch das Lernen, den Kameraschritt rückgängig zu machen

Die Wiederherstellung eines Hochdynamikbereichsbildes (HDR) aus einem einzelnen Niederdynamikbereichsbild (LDR) ist aufgrund der fehlenden Details in unter- und überbelichteten Bereichen, die durch die Quantisierung und Sättigung von Kamera-Sensoren verursacht werden, herausfordernd. Im Gegensatz zu bestehenden lernbasierten Methoden ist unser zentrales Konzept, das Fachwissen des LDR-Bildbildungsprozesses in unser Modell einzubeziehen. Wir modellieren den Bildbildungsprozess von HDR zu LDR als (1) dynamisches Bereichsklipping, (2) nichtlineare Abbildung durch eine Kamerantwortfunktion und (3) Quantisierung. Anschließend schlagen wir vor, drei spezialisierte CNNs (Convolutional Neural Networks) zu trainieren, um diese Schritte rückgängig zu machen. Durch die Zerlegung des Problems in spezifische Teilprobleme legen wir effektive physikalische Restriktionen auf, um das Training der einzelnen Subnetze zu erleichtern. Schließlich feinjustieren wir das gesamte Modell end-to-end, um Fehlerakkumulation zu reduzieren. Mit umfangreichen quantitativen und qualitativen Experimenten an verschiedenen Bild-Datensätzen zeigen wir, dass die vorgeschlagene Methode sich günstig mit den neuesten Algorithmen zur HDR-Rekonstruktion aus einem einzelnen Bild vergleicht.