18 天前

用于高质量帧插值的跨视频神经表征学习

Wentao Shangguan, Yu Sun, Weijie Gan, Ulugbek S. Kamilov
用于高质量帧插值的跨视频神经表征学习
摘要

本文研究了时间视频插值问题,其目标是在给定两个相邻帧的情况下,合成一个新的视频帧。我们提出了一种基于神经场(Neural Fields, NF)的首个视频插值方法——跨视频神经表示(Cross-Video Neural Representation, CURE)。神经场是一类近年来在计算机视觉领域广泛应用并取得显著成果的复杂三维场景神经表示方法。CURE 将视频建模为一个由坐标基神经网络参数化的连续函数,其输入为时空坐标,输出对应像素的RGB值。CURE 引入了一种新型网络架构,通过将神经网络条件化于输入帧,以在合成视频中强制实现时空一致性。这一机制不仅显著提升了插值结果的质量,还使 CURE 能够在多视频之间学习共享先验知识。实验评估表明,CURE 在多个基准数据集上的视频插值任务中均达到了当前最优(state-of-the-art)性能。