HyperAIHyperAI
vor 17 Tagen

Sequentielle hierarchische Lernmethoden mit Verteilungstransformation für die Bild-Super-Resolution

Yuqing Liu, Xinfeng Zhang, Shanshe Wang, Siwei Ma, Wen Gao
Sequentielle hierarchische Lernmethoden mit Verteilungstransformation für die Bild-Super-Resolution
Abstract

In jüngsten Arbeiten zur Bild-Super-Resolution (SR) wurde die mehrskalige Gestaltung berücksichtigt, um hierarchische Merkmalsinformationen zu erforschen. Bestehende mehrskalige Netzwerke zielen darauf ab, komplexe Blöcke oder progressive Architekturen zur Restaurierung zu entwickeln. Im Allgemeinen konzentrieren sich größere Skalenmerkmale stärker auf strukturelle und hochwertige Informationen, während kleinere Skalenreiche reichhaltige Details und texturierte Informationen enthalten. Aus dieser Perspektive lässt sich Information aus größeren Skalenmerkmalen aus kleineren ableiten. Basierend auf dieser Beobachtung entwickeln wir in diesem Artikel ein sequentielles hierarchisches Lern-Netzwerk für die Super-Resolution (SHSR), um eine effektive Bild-SR zu ermöglichen. Insbesondere berücksichtigen wir die inter-skalaren Korrelationen der Merkmale und entwickeln einen sequentiellen mehrskaligen Block (SMB), um hierarchische Informationen schrittweise zu erforschen. Der SMB wird rekursiv gestaltet, wobei die Linearität der Faltung mit eingeschränkten Parametern ausgenutzt wird. Zusätzlich zur sequentiellen hierarchischen Lernstrategie untersuchen wir auch die Korrelationen zwischen Merkmalskarten und entwickeln einen Verteilungstransformationsblock (DTB). Im Gegensatz zu auf Aufmerksamkeit basierenden Methoden betrachtet der DTB die Transformation in einer Normalisierungssicht und berücksichtigt gemeinsam räumliche und kanalweise Korrelationen mittels Skalierungs- und Bias-Faktoren. Experimentelle Ergebnisse zeigen, dass SHSR im Vergleich zu aktuellen State-of-the-Art-Methoden eine überlegene quantitative Leistung und visuelle Qualität erzielt, wobei bei einem Skalierungsfaktor von ×4 nahezu 34 % weniger Parameter und 50 % weniger MACs benötigt werden. Um die Leistung ohne zusätzlichen Trainingsaufwand zu steigern, wird ein Erweiterungsmodell SHSR⁺ mit Self-Ensemble vorgestellt, das eine konkurrenzfähige Leistung erreicht, verglichen mit größeren Netzwerken, bei nahezu 92 % weniger Parametern und 42 % weniger MACs bei einem Skalierungsfaktor von ×4.