
摘要
基于卷积神经网络的图像风格迁移模型在应用于视频时通常会遇到较高的时间不一致性问题。尽管已有一些视频风格迁移模型被提出以改善时间一致性,但它们往往无法同时保证快速处理速度、良好的感知风格质量和高时间一致性。本文提出了一种新颖的实时视频风格迁移模型——ReCoNet,该模型能够在保持良好感知风格的同时生成时间连贯的风格迁移视频。我们引入了一种新的亮度扭曲约束(luminance warping constraint),将其添加到输出层面的时间损失中,以捕捉连续帧之间的亮度变化并提高光照效果下的风格化稳定性。此外,我们还提出了一种新的特征图层面的时间损失,以进一步增强可追踪对象的时间一致性。实验结果表明,我们的模型在定性和定量方面均表现出色。