Bild-Super-Auflösung durch RL-CSC: Wenn Residuelles Lernen auf Faltungs-basierte Sparsity-Kodierung trifft

Wir schlagen ein einfaches, aber effektives Modell für die Super-Resolution von Einzelbildern (SISR) vor, indem wir die Vorteile des Residual Learning und der Faltungsverknüpfung mit dünnbesetzten Kodierungen (Convolutional Sparse Coding, CSC) kombinieren. Unser Modell ist inspiriert durch den gelernten iterativen Schwellenwert-Algorithmus (Learned Iterative Shrinkage-Threshold Algorithm, LISTA). Wir erweitern LISTA auf seine faltungsbasierte Version und bauen den Hauptteil unseres Modells streng nach dem Faltungsprinzip auf, was die Interpretierbarkeit des Netzes verbessert. Insbesondere werden die dünnbesetzten Kodierungen der Eingabemerkmalskarten in rekursiver Weise gelernt, und hochfrequente Informationen können aus diesen CSCs rekonstruiert werden. Noch wichtiger ist, dass das Residual Learning angewendet wird, um die Trainierungsschwierigkeiten zu mildern, wenn das Netzwerk tiefer wird. Ausführliche Experimente an Standard-Datensätzen zeigen die Effektivität unserer Methode. RL-CSC (30 Schichten) übertrifft mehrere aktuelle state-of-the-art-Methoden, wie z.B. DRRN (52 Schichten) und MemNet (80 Schichten), sowohl in Bezug auf Genauigkeit als auch visuelle Qualität. Der Quellcode und weitere Ergebnisse sind unter https://github.com/axzml/RL-CSC verfügbar.