Breite Aktivierung für effiziente und genaue Bildsuperresolution

In diesem Bericht zeigen wir, dass Modelle mit breiteren Features vor der ReLU-Aktivierung bei gleichen Parametern und Rechenbudgets eine erheblich bessere Leistung für die Super-Resolution von einzelnen Bildern (SISR) aufweisen. Das resultierende SR-Residualnetzwerk hat einen schlanken Identitätsabbildungspfad mit breiteren ((2\times) bis (4\times)) Kanälen vor der Aktivierung in jedem Residualblock. Um die Aktivierung weiter zu verbreitern ((6\times) bis (9\times)), ohne zusätzlichen Rechenaufwand zu verursachen, führen wir lineare Niedrigrang-Faltung in SR-Netzwerke ein und erreichen noch bessere Genauigkeits-Effizienz-Kompromisse. Zudem stellen wir fest, dass das Training mit Gewichtsnormierung im Vergleich zur Batch-Normierung oder keiner Normierung zu besserer Genauigkeit für tiefe Super-Resolution-Netzwerke führt. Unser vorgeschlagenes SR-Netzwerk \textit{WDSR} erzielt bessere Ergebnisse im großen Maßstab des DIV2K-Bild-Super-Resolution-Benchmarks hinsichtlich des PSNR bei gleichem oder geringerem Rechenaufwand. Basierend auf WDSR gewann unsere Methode den ersten Platz in der NTIRE 2018 Challenge zur Super-Resolution von einzelnen Bildern in allen drei realistischen Tracks. Experimente und Abstraktionsstudien untermauern die Bedeutung breiter Aktivierung für die Bild-Super-Resolution. Der Quellcode ist unter folgendem Link verfügbar:https://github.com/JiahuiYu/wdsr_ntire2018