Glow in the Dark: Bildverbesserung im schwachen Licht mit externem Speicher
Basiert auf tiefem Lernen entwickelte Methoden haben aufgrund ihrer leistungsstarken Modellierungsfähigkeiten beachtliche Erfolge erzielt. Allerdings werden die Gewichte dieser Modelle über den gesamten Trainingsdatensatz gelernt, was unvermeidlich dazu führt, dass spezifische Eigenschaften einzelner Proben im gelernten Verbesserungsabbildungsprozess vernachlässigt werden. Dies führt in der Testphase zu ineffektiven Verbesserungen für Proben, die sich signifikant von der Trainingsverteilung unterscheiden. In diesem Artikel führen wir einen externen Speicher ein, um ein externer-Speicher-erweitertes Netzwerk (EMNet) für die Verbesserung von schwach beleuchteten Bildern zu konstruieren. Der externe Speicher soll die probe-spezifischen Eigenschaften des Trainingsdatensatzes erfassen, um die Verbesserung in der Testphase gezielt zu leiten. Durch die Nutzung des gelernten Speichers können komplexere Verteilungen der Referenzbilder im gesamten Datensatz „erinnert“ werden, was die adaptivere Anpassung der Testproben ermöglicht. Um die Kapazität des Modells weiter zu erhöhen, wählen wir den Transformer als Basisnetzwerk, das sich durch seine Fähigkeit auszeichnet, langreichweitige räumliche Redundanzen zu erfassen. Experimentelle Ergebnisse zeigen, dass die vorgeschlagene Methode eine vielversprechende Leistung erzielt und state-of-the-art-Methoden übertrifft. Es ist hervorzuheben, dass der vorgeschlagene externe Speicher ein plug-and-play-Mechanismus ist, der mit jeder bestehenden Methode integriert werden kann, um die Verbesserungsqualität weiter zu steigern. Weitere praktische Anwendungen der Integration des externen Speichers mit anderen Bildverbesserungsmethoden werden qualitativ und quantitativ analysiert. Die Ergebnisse bestätigen zudem die Wirksamkeit des vorgeschlagenen Speichermechanismus, wenn er mit bestehenden Verbesserungsmethoden kombiniert wird.