
摘要
大多数传统的监督式超分辨率(SR)算法假设低分辨率(LR)图像由高分辨率(HR)图像通过一个固定且已知的下采样核进行下采样得到,然而这一假设在实际场景中往往并不成立。近年来,一些无监督超分辨率(blind SR)算法被提出,旨在为每张输入的低分辨率图像估计不同的下采样核。然而,这些方法通常计算开销巨大,难以直接应用于视频超分辨率任务。为此,本文提出了一种新型基于元学习的视频超分辨率框架——DynaVSR,该框架专为真实世界视频超分辨率设计,能够高效地估计下采样模型并自适应地适配当前输入。具体而言,我们训练了一个多帧下采样模块,该模块使用多种类型的合成模糊核进行训练,并与视频超分辨率网络无缝集成,实现输入感知的自适应能力。实验结果表明,DynaVSR显著提升了当前最先进的视频超分辨率模型的性能,同时推理速度比现有的无监督超分辨率方法快一个数量级。