摘要
近年来,基于注意力机制的网络在图像恢复任务中取得了显著成功。然而,现有方法普遍存在计算成本过高或感受野受限的问题,对模型性能造成了制约。此外,这些方法在空间与上下文建模方面鲁棒性不足,且缺乏像素级的对应关系,可能导致特征表示能力下降。为此,本文提出一种新颖且计算高效的单阶段自适应多注意力网络(Single Stage Adaptive Multi-Attention Network, SSAMAN),专用于图像恢复任务,尤其在图像去噪与图像去模糊方面表现突出。SSAMAN有效缓解了计算复杂性问题,同时显著扩展了感受野,增强了空间与上下文特征表示的鲁棒性。其核心模块——自适应多注意力模块(Adaptive Multi-Attention Module, AMAM),由自适应像素注意力分支(Adaptive Pixel Attention Branch, APAB)与自适应通道注意力分支(Adaptive Channel Attention Branch, ACAB)构成,创新性地融合了通道维度与像素级维度的注意力机制,显著提升了对边缘、形状及纹理等细节的敏感度。我们通过大量实验与消融研究验证了SSAMAN的有效性。实验结果表明,该模型在多个基准数据集上均达到当前最优水平:在图像去噪任务中,SSAMAN在SIDD数据集上取得了40.08 dB的PSNR,较Restormer提升0.06 dB,同时计算成本降低41.02%;在DND数据集上达到40.05 dB的PSNR。在图像去模糊任务中,SSAMAN在GoPro数据集上实现33.53 dB的PSNR。相关代码与模型已开源,可通过GitHub获取。