Einfache Baselines für die Bildrestauration

Obwohl es in der Bildrestauration kürzlich erhebliche Fortschritte gegeben hat, nimmt die Systemkomplexität der Stand-of-the-Art-Methoden (SOTA) ebenfalls zu, was die einfache Analyse und Vergleichbarkeit dieser Methoden erschweren kann. In dieser Arbeit schlagen wir eine einfache Baseline vor, die die SOTA-Methoden übertrifft und rechnerisch effizient ist. Um die Baseline weiter zu vereinfachen, zeigen wir, dass nichtlineare Aktivierungsfunktionen wie Sigmoid, ReLU, GELU, Softmax usw. nicht erforderlich sind: Sie können durch Multiplikation ersetzt oder ganz entfernt werden. Somit leiten wir ein Netzwerk ohne nichtlineare Aktivierungsfunktionen ab, das wir als Nonlinear Activation Free Network (NAFNet) bezeichnen. Auf verschiedenen anspruchsvollen Benchmarks werden SOTA-Ergebnisse erzielt, z.B. 33,69 dB PSNR auf GoPro (für Bildentverunschärfung), wobei der Vorteil gegenüber dem bisherigen SOTA von 0,38 dB bei nur 8,4 % der Rechenkosten erreicht wird; sowie 40,30 dB PSNR auf SIDD (für Bildrauschmodifikation), wobei der Vorteil gegenüber dem bisherigen SOTA von 0,28 dB bei weniger als der Hälfte der Rechenkosten erreicht wird. Der Code und die vortrainierten Modelle sind unter https://github.com/megvii-research/NAFNet veröffentlicht.