
摘要
图像去模糊旨在从对应的模糊图像中恢复出高质量图像。卷积神经网络(CNN)与Transformer的兴起推动了该领域取得显著进展。然而,现有方法往往在消除长距离退化干扰与保持计算效率之间面临权衡。尽管选择性状态空间模型(Selective State Space Model, SSM)在以线性复杂度建模长距离依赖关系方面展现出潜力,但仍存在局部像素遗忘和通道冗余等挑战。为解决上述问题,本文提出一种高效的图像去模糊网络,该网络利用选择性状态空间模型来聚合丰富且准确的特征。具体而言,我们设计了一种融合局部与全局信息的模块(Aggregate Local and Global Information Block, ALGBlock),以有效捕捉并整合局部不变特性与非局部信息。ALGBlock由两个核心模块构成:用于捕获局部与全局特征的模块(CLGF模块)以及特征聚合模块(FA模块)。其中,CLGF模块包含两条并行分支:全局分支通过选择性状态空间模型提取长距离依赖特征,局部分支则采用简化的通道注意力机制建模局部空间关联性,从而缓解局部像素遗忘与通道冗余问题。此外,我们进一步设计了FA模块,在融合两条分支特征的过程中重新校准权重,以增强局部信息的贡献,提升恢复效果。实验结果表明,所提方法在多个广泛使用的基准数据集上均优于现有最先进方法。