Detail-offenlegende Tiefes Video-Super-Resolution

Frühere Ansätze zur Videosuperauflösung auf Basis von Faltungsneuronalen Netzen (CNNs) erfordern die Ausrichtung mehrerer Frames auf den Referenzframe. In dieser Arbeit zeigen wir, dass eine angemessene Frameausrichtung und Bewegungskompensation entscheidend für die Erzielung hochwertiger Ergebnisse ist. Wir schlagen daher eine „Sub-Pixel-Bewegungskompensation“-(SPMC)-Schicht in einem CNN-Framework vor. Analysen und Experimente belegen die Eignung dieser Schicht für die Videosuperauflösung (SR). Das endgültige, von Anfang bis Ende durchgeführte und skalierbare CNN-Framework integriert die SPMC-Schicht effektiv und fusioniert mehrere Frames, um Bildetails zu enthüllen. Unsere Implementierung kann sowohl visuell als auch quantitativ hochwertige Ergebnisse erzeugen, die den aktuellen Stand der Technik übertrumpfen, ohne dass ein Parameter-Tuning erforderlich ist.