摘要
近年来,深度学习方法在压缩视频质量增强方面取得了显著进展。为更有效地挖掘时序信息,现有方法通常通过估计光流实现时序运动补偿。然而,由于压缩视频受到多种压缩伪影的严重干扰,导致估计的光流往往不准确且不可靠,从而限制了质量增强的效果。此外,传统方法通常以成对方式对连续帧进行光流估计,计算成本高且效率低下。针对上述问题,本文提出一种快速而高效的质量增强方法,通过引入一种新颖的时空可变形融合(Spatio-Temporal Deformable Fusion, STDF)机制,实现时序信息的有效聚合。具体而言,所提出的STDF以目标帧及其邻近参考帧作为输入,联合预测一个偏移场,用于对卷积操作的时空采样位置进行变形。由此,目标帧与参考帧之间的互补信息可在一次时空可变形卷积(Spatio-Temporal Deformable Convolution, STDC)操作中完成融合。大量实验结果表明,本方法在质量增强的准确性和效率方面均达到了当前最优水平。