HyperAIHyperAI
vor 2 Monaten

Residuelles Dichtes Netzwerk für Bildsuperauflösung

Zhang, Yulun ; Tian, Yapeng ; Kong, Yu ; Zhong, Bineng ; Fu, Yun
Residuelles Dichtes Netzwerk für Bildsuperauflösung
Abstract

Ein sehr tiefes Faltungsneuronales Netzwerk (CNN) hat kürzlich bei der Bildsuperauflösung (SR) großartige Erfolge erzielt und hierarchische Merkmale bereitgestellt. Dennoch nutzen die meisten auf tiefen CNNs basierenden SR-Modelle die hierarchischen Merkmale aus den ursprünglichen Niedrigauflösungsbildern (LR) nicht vollständig, wodurch ihre Leistung relativ gering ist. In dieser Arbeit schlagen wir ein neues Residuelles Dichtes Netzwerk (RDN) vor, um dieses Problem in der Bildsuperauflösung zu lösen. Wir nutzen die hierarchischen Merkmale aus allen Faltungsschichten vollständig aus.Speziell schlagen wir einen residuellen dichten Block (RDB) vor, um durch dicht verbundene Faltungsschichten reichhaltige lokale Merkmale zu extrahieren. Der RDB ermöglicht zudem direkte Verbindungen vom Zustand des vorherigen RDB zu allen Schichten des aktuellen RDB, was zu einem kontinuierlichen Gedächtnis (CM)-Mechanismus führt. Die lokale Merkmalsfusion im RDB wird verwendet, um adaptiv effektivere Merkmale aus vorherigen und aktuellen lokalen Merkmalen zu lernen und das Training eines breiteren Netzes zu stabilisieren. Nachdem wir dichte lokale Merkmale vollständig gewonnen haben, verwenden wir eine globale Merkmalsfusion, um auf holistische Weise globale hierarchische Merkmale gemeinsam und adaptiv zu lernen.Ausführliche Experimente mit Benchmark-Datensätzen und verschiedenen Degradationsmodellen zeigen, dass unser RDN gegenüber den besten bisher bekannten Methoden eine vorteilhafte Leistung erzielt.