HyperAIHyperAI
vor 17 Tagen

Low-Light Image Enhancement mit wellenbasierten Diffusionsmodellen

Hai Jiang, Ao Luo, Songchen Han, Haoqiang Fan, Shuaicheng Liu
Low-Light Image Enhancement mit wellenbasierten Diffusionsmodellen
Abstract

Diffusionsmodelle haben vielversprechende Ergebnisse bei Aufgaben der Bildrekonstruktion erzielt, leiden jedoch unter zeitaufwendigen Prozessen, übermäßiger Rechenressourcennutzung und instabiler Rekonstruktion. Um diese Probleme zu lösen, stellen wir einen robusten und effizienten, auf Diffusionsmodellen basierenden Ansatz zur Verbesserung von Unterbelichtungsbildern vor, der als DiffLL bezeichnet wird. Konkret präsentieren wir ein wellenbasiertes bedingtes Diffusionsmodell (Wavelet-based Conditional Diffusion Model, WCDM), das die generativen Fähigkeiten von Diffusionsmodellen nutzt, um Ergebnisse mit zufriedenstellender perceptueller Treue zu erzeugen. Zudem profitiert das Modell von den Stärken der Wavelet-Transformation, um die Inferenz erheblich zu beschleunigen und die Rechenressourcennutzung zu reduzieren, ohne dabei Informationen zu verlieren. Um chaotische Inhalte und übermäßige Vielfalt zu vermeiden, führen wir sowohl die Vorwärts-Diffusion als auch die Entrauschung im Trainingsprozess des WCDM durch, wodurch das Modell eine stabile Entrauschung erreicht und die Zufälligkeit während der Inferenz verringert. Darüber hinaus entwickeln wir ein Hochfrequenz-Rekonstruktionsmodul (High-Frequency Restoration Module, HFRM), das die vertikalen und horizontalen Details des Bildes nutzt, um die Diagonalinformationen zu ergänzen und eine feinere Rekonstruktion zu ermöglichen. Umfangreiche Experimente auf öffentlich verfügbaren realen Benchmark-Daten zeigen, dass unser Ansatz sowohl quantitativ als auch visuell die bestehenden State-of-the-Art-Methoden übertrifft und im Vergleich zu früheren auf Diffusionsmodellen basierenden Ansätzen beachtliche Verbesserungen in Bezug auf Effizienz erzielt. Zudem zeigen wir empirisch, dass die Anwendung auf die Erkennung von Gesichtern bei schlechten Lichtverhältnissen die latenten praktischen Vorteile unseres Verfahrens unterstreicht. Der Quellcode ist unter https://github.com/JianghaiSCU/Diffusion-Low-Light verfügbar.