HDRUNet: HDR-Rekonstruktion von Einzelbildern mit Rauschunterdrückung und Dequantifizierung

Die meisten Verbraucher-Digitalkameras können aufgrund von Sensoreinschränkungen nur einen begrenzten Helligkeitsbereich in realen Szenen erfassen. Zudem werden im Abbildungsprozess oft Rauschen und Quantisierungsfehler eingeführt. Um Hochdynamic-Bilder (HDR) mit ausgezeichneter visueller Qualität zu erhalten, ist die gebräuchlichste Lösung, mehrere Bilder mit unterschiedlichen Belichtungen zu kombinieren. Allerdings ist es nicht immer möglich, mehrere Bilder derselben Szene zu erzeugen, und die meisten HDR-Rekonstruktionsmethoden ignorieren das Rauschen und den Quantisierungsverlust. In dieser Arbeit schlagen wir einen neuen lernbasierten Ansatz vor, der ein räumlich dynamisches Encoder-Decoder-Netzwerk, HDRUNet, verwendet, um eine end-to-end-Abbildung für die Rekonstruktion von Hochdynamic-Bildern aus einem einzelnen Bild mit Rauschunterdrückung und Dequantisierung zu lernen. Das Netzwerk besteht aus einem UNet-artigen Basenetzwerk zur vollständigen Nutzung der hierarchischen Multiskaleninformationen, einem Bedingungsnetzwerk zur durchmusterungsspezifischen Modulation und einem Gewichtungsnetzwerk zur selektiven Erhaltung von Informationen. Darüber hinaus schlagen wir eine Tanh_L1-Fehlerfunktion vor, um den Einfluss überbelichteter Werte und gut belichteter Werte auf das Lernen des Netzwerks auszugleichen. Unsere Methode erreicht den aktuellen Stand der Technik in quantitativen Vergleichen und visueller Qualität. Das vorgeschlagene HDRUNet-Modell belegte den zweiten Platz im Single-Frame-Wettbewerb der NITRE2021 High Dynamic Range Challenge.