Bildsuperauflösung mit sehr tiefen Residual-Kanalaufmerksamkeitsnetzwerken

Die Tiefe von Faltungsneuronalen Netzen (CNN) ist für die Bildsuperresolution (SR) von entscheidender Bedeutung. Allerdings stellen wir fest, dass tiefere Netze für die Bildsuperresolution schwieriger zu trainieren sind. Die niederfrequenten Eingaben und Merkmale enthalten reichhaltige Niederfrequenzinformationen, die über alle Kanäle hinweg gleichwertig behandelt werden, was die Darstellungsfähigkeit von CNNs beeinträchtigt. Um diese Probleme zu lösen, schlagen wir sehr tiefe Residual-Channel-Attention-Netze (RCAN) vor. Insbesondere entwickeln wir eine Residual-in-Residual (RIR)-Struktur, um sehr tiefe Netze zu bilden, die aus mehreren Residualgruppen mit langen Übersprungverbindungen bestehen. Jede Residualgruppe enthält einige Residualblöcke mit kurzen Übersprungverbindungen. Gleichzeitig ermöglicht RIR es, reichhaltige Niederfrequenzinformationen durch mehrere Übersprungverbindungen zu umgehen, sodass das Hauptnetz sich auf das Lernen von Hochfrequenzinformationen konzentrieren kann. Des Weiteren schlagen wir einen Kanal-Aufmerksamkeitsmechanismus vor, der kanalweise Merkmale anpassbar skaliert, indem er die Abhängigkeiten zwischen den Kanälen berücksichtigt. Ausführliche Experimente zeigen, dass unser RCAN gegenüber den neuesten Methoden bessere Genauigkeit und visuelle Verbesserungen erzielt.