Residuelles Dichtes Netzwerk für Bildrestauration

Convolutionale Neuronale Netze (CNN) haben kürzlich bei der Bildrestauration (IR) große Erfolge erzielt und hierarchische Merkmale bereitgestellt. Dennoch nutzen die meisten tiefen CNN-basierten IR-Modelle die hierarchischen Merkmale aus den ursprünglichen Niedrigqualitätsbildern nicht vollständig, wodurch ihre Leistung relativ gering ist. In dieser Arbeit schlagen wir ein neues Residual Dense Network (RDN) vor, um dieses Problem in der IR zu lösen. Wir nutzen die hierarchischen Merkmale aus allen Faltungsschichten vollständig aus. Insbesondere schlagen wir einen Residual Dense Block (RDB) vor, um durch dicht verbundene Faltungsschichten reichhaltige lokale Merkmale zu extrahieren. Der RDB ermöglicht zudem direkte Verbindungen vom Zustand des vorausgehenden RDB zu allen Schichten des aktuellen RDB, was zu einem kontinuierlichen Speichermechanismus führt. Um effektivere Merkmale aus vorausgehenden und aktuellen lokalen Merkmalen adaptiv zu lernen und das Training eines breiteren Netzwerks zu stabilisieren, schlagen wir eine lokale Merkmalsfusion im RDB vor. Nachdem wir dichte lokale Merkmale vollständig erworben haben, verwenden wir eine globale Merkmalsfusion, um auf holistische Weise globale hierarchische Merkmale gemeinsam und adaptiv zu lernen. Wir zeigen die Effektivität des RDN anhand mehrerer repräsentativer IR-Anwendungen: Einzelbild-Superresolution, Gaußsche Bildentrauschung, Reduktion von Kompressionsartefakten in Bildern und Entverwischung von Bildern. Experimente mit Benchmark- und realen Datensätzen zeigen, dass unser RDN in quantitativer und visueller Hinsicht gegenüber den besten Methoden für jede IR-Aufgabe eine günstige Leistung erzielt.