KUNet: Bildgebendes wissensbasiertes Einzelschritt-HDR-Bildrekonstruktionsverfahren
In jüngster Zeit ist mit dem Aufkommen von High-Dynamic-Range (HDR)-Anzeigegeräten ein großes Bedürfnis entstanden, herkömmliche Low-Dynamic-Range (LDR)-Bilder in HDR-Versionen umzuwandeln. Der Schlüssel zum Erfolg liegt darin, das sogenannte „Many-to-Many-Mapping-Problem“ effektiv zu lösen. Bisherige Ansätze berücksichtigen entweder nicht die Einschränkung des Lösungsraums oder replizieren lediglich schrittweise die umgekehrte Kamerabildgebungskette, ohne den Prozess der HDR-Bildgenerierung direkt zu formulieren. In dieser Arbeit lösen wir dieses Problem, indem wir LDR-zu-HDR-Bildgebungswissen in eine UNet-Architektur integrieren, die wir als Knowledge-inspired UNet (KUNet) bezeichnen. Die Umwandlung von LDR zu HDR wird mathematisch formuliert und konzeptionell in drei Schritte unterteilt: die Wiederherstellung fehlender Details, die Anpassung von Bildgebungsparametern sowie die Reduktion von Bildrauschen. Dementsprechend entwickeln wir einen grundlegenden, wissensbasierten Baustein (Knowledge-inspired Block, KIB), der drei Unternetze umfasst, die jeweils den drei Schritten im HDR-Bildgebungsprozess entsprechen. Diese KIB-Blöcke werden in ähnlicher Weise wie in der UNet-Architektur kaskadiert, um HDR-Bilder mit reichhaltiger globaler Information zu erzeugen. Zudem schlagen wir eine wissensbasierte Sprungverbindung (jump-connect) Struktur vor, um die dynamische Reichweitenlücke zwischen HDR- und LDR-Bildern zu überbrücken. Experimentelle Ergebnisse zeigen, dass die vorgeschlagene KUNet im Vergleich zu aktuellen State-of-the-Art-Methoden eine überlegene Leistung erzielt. Der Quellcode, die verwendeten Datensätze sowie zusätzliche Materialien sind unter https://github.com/wanghu178/KUNet.git verfügbar.