Video Frame Interpolation mittels Residuenverfeinerung
Video-Frame-Interpolation erreicht eine temporale Superauflösung durch die Generierung von flüssigen Übergängen zwischen Bildern. Obwohl tiefe neuronale Netze große Erfolge erzielt haben, leiden die synthetisierten Bilder weiterhin an einer schlechten visuellen Qualität und unerwünschten Artefakten. In diesem Paper stellen wir eine neuartige Netzwerkarchitektur vor, die Residuenverfeinerung und adaptive Gewichtung nutzt, um Zwischenbilder präzise zu synthetisieren. Die Technik der Residuenverfeinerung dient der Verbesserung der optischen Flussberechnung und der Bildgenerierung, wodurch eine höhere Genauigkeit und eine bessere visuelle Qualität erzielt werden. Gleichzeitig ermöglicht die adaptive Gewichtskarte die Kombination von Vorwärts- und Rückwärts-gewarped Bildern, um Artefakte zu reduzieren. Darüber hinaus werden alle Teilmodule unserer Methode mit U-Net-Architekturen mit geringerer Tiefe implementiert, was die Effizienz gewährleistet. Experimente auf öffentlichen Datensätzen belegen die Wirksamkeit und Überlegenheit unserer Methode gegenüber aktuellen State-of-the-Art-Ansätzen.