EXTRACTER: Effiziente Textur-Abgleichung mit Aufmerksamkeit und Gradientenverstärkung für die große Skala Bild-Superauflösung

Kürzlich haben referenzbasierte Methoden zur Bild-Super-Resolution (RefSR) state-of-the-art tiefen Lernverfahren verbessert, indem sie Aufmerksamkeitsmechanismen einführen, um aus einer Referenz-Hochauflösungsbild hochauflösende Texturen zu übertragen und so Niedrigauflösungs-Bilder zu verbessern. Der zentrale Ansatz besteht darin, mithilfe eines Merkmalsraums zwischen Patch-Teilen des Niedrigauflösungs- und des Referenz-Hochauflösungsbildes entsprechende Übereinstimmungen zu finden und diese mittels tiefer Architekturen zu fusionieren. Allerdings fehlen bestehenden Ansätzen eine präzise Suche nach Texturen. Sie zerlegen Bilder in möglichst viele Patch-Teile, was zu ineffizienter Speicherverwendung führt und die Verarbeitung großer Bilder unmöglich macht. In diesem Beitrag stellen wir eine tiefen Suchstrategie vor, die eine deutlich effizientere Speichernutzung ermöglicht, die Anzahl der Bildpatches signifikant reduziert und für jeden Patch des Niedrigauflösungsbildes die $k$ relevantesten Texturen aus den Patch-Teilen des Hochauflösungsbildes findet, wodurch eine präzise Texturen-Übereinstimmung erreicht wird. Zudem verbessern wir das Super-Resolution-Ergebnis durch die Integration von Gradientendichte-Informationen mittels einer einfachen Residual-Architektur und erreichen dabei wettbewerbsfähige Metrikergebnisse in Bezug auf PSNR und SSMI.