Sie benötigen nur einen Farbraum: Ein effizientes Netzwerk zur Verbesserung von Bildern bei niedrigem Licht

Die Aufgabe der Low-Light-Bildverbesserung (LLIE) besteht darin, Details und visuelle Informationen aus belichtungsfehlerhaften Bildern bei schwacher Beleuchtung wiederherzustellen. Die meisten existierenden Methoden lernen die Abbildungsfunktion zwischen Bildern bei schwacher und normaler Beleuchtung durch Tief neuronalen Netze (DNNs) im sRGB- und HSV-Farbraum. Dennoch führt die Verbesserung zu einer Verstärkung von Bildsignalen, und die Anwendung dieser Farbräume auf Bilder mit einem niedrigen Signal-Rausch-Verhältnis kann Sensitivität und Instabilität im Verbesserungsprozess verursachen. Dies resultiert in der Präsenz von Farb- und Helligkeitsartefakten in den verbesserten Bildern. Um dieses Problem zu mildern, schlagen wir einen neuen, trainierbaren Farbraum vor, den Horizontal/Vertical-Intensity (HVI)-Farbraum. Er trennt nicht nur Helligkeit und Farbe von den RGB-Kanälen, um die Instabilität während der Verbesserung zu verringern, sondern passt sich auch an Bilder bei unterschiedlichen Beleuchtungsbedingungen an, dank seiner trainierbaren Parameter. Darüber hinaus haben wir ein neues Netzwerk namens Color and Intensity Decoupling Network (CIDNet) entwickelt, das zwei Zweige besitzt, die speziell für die Verarbeitung der getrennten Bildhelligkeit und -farbe im HVI-Farbraum konzipiert sind. Innerhalb des CIDNet führen wir das Lightweight Cross-Attention (LCA)-Modul ein, um die Interaktion zwischen Bildstruktur und Inhaltsinformationen in beiden Zweigen zu erleichtern und gleichzeitig Rauschen in Bildern bei schwacher Beleuchtung zu unterdrücken. Schließlich haben wir 22 quantitative und qualitative Experimente durchgeführt, um zu zeigen, dass das vorgeschlagene CIDNet auf 11 Datensätzen den aktuellen Stand der Technik übertrifft. Der Code ist unter https://github.com/Fediory/HVI-CIDNet verfügbar.