9 天前

用于图像去模糊的高效视觉状态空间模型

Lingshun Kong, Jiangxin Dong, Jinhui Tang, Ming-Hsuan Yang, Jinshan Pan
用于图像去模糊的高效视觉状态空间模型
摘要

卷积神经网络(CNNs)与视觉Transformer(ViTs)在图像恢复任务中均取得了优异性能。尽管ViTs通过有效捕捉长距离依赖关系和输入特定特征而通常优于CNN,但其计算复杂度随图像分辨率的提升呈二次增长,这一局限性严重制约了其在高分辨率图像恢复中的实际应用。本文提出了一种简洁而高效的视觉状态空间模型(EVSSM),用于图像去模糊任务,充分利用状态空间模型(SSMs)在视觉数据建模中的优势。与现有方法中采用多种固定方向扫描进行特征提取、导致计算开销显著增加的做法不同,我们设计了一种高效的视觉扫描模块,在每个基于SSM的模块前引入多种几何变换,从而有效捕获有用的非局部信息,同时保持较高的计算效率。此外,为更有效地捕捉与表征局部信息,本文还提出一种高效的判别性频域前馈网络(EDFFN),能够精准估计对潜在清晰图像恢复具有价值的频率信息。大量实验结果表明,所提出的EVSSM在标准数据集及真实世界图像上的去模糊性能均优于当前最先进的方法。代码已开源,地址为:https://github.com/kkkls/EVSSM。

用于图像去模糊的高效视觉状态空间模型 | 最新论文 | HyperAI超神经