Jenseits eines Gauß'schen Denoisers: Residuelles Lernen tiefer CNNs für Bildrauscharmung

Das Lernen diskriminativer Modelle für die Bildentrausung zieht aufgrund seiner vorteilhaften Entrauscheleistung in letzter Zeit erhebliche Aufmerksamkeit auf sich. In dieser Arbeit gehen wir einen Schritt weiter und untersuchen die Konstruktion von feedforward-Entrauschungs-Konvolutionellen Neuronalen Netzen (DnCNNs), um den Fortschritt in sehr tiefer Architektur, Lernalgorithmen und Regularisierungsmethoden in die Bildentrausung zu integrieren. Insbesondere werden Residuallernen und Batch-Normalisierung verwendet, um sowohl den Trainingsprozess zu beschleunigen als auch die Entrauscheleistung zu verbessern. Im Gegensatz zu den existierenden diskriminativen Entrauschungsmodellen, die normalerweise ein spezifisches Modell für additiven weißen Gaußschen Rauschen (AWGN) bei einem bestimmten Rauschpegel trainieren, ist unser DnCNN-Modell in der Lage, Gauss'sche Entrauschung mit unbekanntem Rauschpegel (d.h., blinde Gauss'sche Entrauschung) zu behandeln. Mit Hilfe der Strategie des Residuallerns entfernt das DnCNN implizit das latente saubere Bild in den verborgenen Schichten. Diese Eigenschaft motiviert uns, ein einzelnes DnCNN-Modell zu trainieren, um mehrere allgemeine Bildentrauschungsaufgaben wie Gauss'sche Entrauschung, Superresolution von Einzelbildern und Deblocking von JPEG-Bildern anzugehen. Unsere umfangreichen Experimente zeigen nicht nur, dass unser DnCNN-Modell eine hohe Effektivität bei mehreren allgemeinen Bildentrauschungsaufgaben aufweist, sondern auch dank der Nutzung von GPU-Rechnungen effizient implementiert werden kann.