HyperAIHyperAI

Command Palette

Search for a command to run...

Sequentielle hierarchische Lernmethoden mit Verteilungstransformation für die Bild-Super-Resolution

Yuqing Liu Xinfeng Zhang Shanshe Wang Siwei Ma Wen Gao

Zusammenfassung

In jüngsten Arbeiten zur Bild-Super-Resolution (SR) wurde die mehrskalige Gestaltung berücksichtigt, um hierarchische Merkmalsinformationen zu erforschen. Bestehende mehrskalige Netzwerke zielen darauf ab, komplexe Blöcke oder progressive Architekturen zur Restaurierung zu entwickeln. Im Allgemeinen konzentrieren sich größere Skalenmerkmale stärker auf strukturelle und hochwertige Informationen, während kleinere Skalenreiche reichhaltige Details und texturierte Informationen enthalten. Aus dieser Perspektive lässt sich Information aus größeren Skalenmerkmalen aus kleineren ableiten. Basierend auf dieser Beobachtung entwickeln wir in diesem Artikel ein sequentielles hierarchisches Lern-Netzwerk für die Super-Resolution (SHSR), um eine effektive Bild-SR zu ermöglichen. Insbesondere berücksichtigen wir die inter-skalaren Korrelationen der Merkmale und entwickeln einen sequentiellen mehrskaligen Block (SMB), um hierarchische Informationen schrittweise zu erforschen. Der SMB wird rekursiv gestaltet, wobei die Linearität der Faltung mit eingeschränkten Parametern ausgenutzt wird. Zusätzlich zur sequentiellen hierarchischen Lernstrategie untersuchen wir auch die Korrelationen zwischen Merkmalskarten und entwickeln einen Verteilungstransformationsblock (DTB). Im Gegensatz zu auf Aufmerksamkeit basierenden Methoden betrachtet der DTB die Transformation in einer Normalisierungssicht und berücksichtigt gemeinsam räumliche und kanalweise Korrelationen mittels Skalierungs- und Bias-Faktoren. Experimentelle Ergebnisse zeigen, dass SHSR im Vergleich zu aktuellen State-of-the-Art-Methoden eine überlegene quantitative Leistung und visuelle Qualität erzielt, wobei bei einem Skalierungsfaktor von ×4 nahezu 34 % weniger Parameter und 50 % weniger MACs benötigt werden. Um die Leistung ohne zusätzlichen Trainingsaufwand zu steigern, wird ein Erweiterungsmodell SHSR⁺ mit Self-Ensemble vorgestellt, das eine konkurrenzfähige Leistung erreicht, verglichen mit größeren Netzwerken, bei nahezu 92 % weniger Parametern und 42 % weniger MACs bei einem Skalierungsfaktor von ×4.


KI mit KI entwickeln

Von der Idee bis zum Launch – beschleunigen Sie Ihre KI-Entwicklung mit kostenlosem KI-Co-Coding, sofort einsatzbereiter Umgebung und bestem GPU-Preis.

KI-gestütztes kollaboratives Programmieren
Sofort einsatzbereite GPUs
Die besten Preise

HyperAI Newsletters

Abonnieren Sie unsere neuesten Updates
Wir werden die neuesten Updates der Woche in Ihren Posteingang liefern um neun Uhr jeden Montagmorgen
Unterstützt von MailChimp