摘要
作为一项长期研究任务,图像修复旨在从退化图像中恢复出潜在的清晰图像。近年来,由于自注意力机制在捕捉长距离依赖关系方面表现出色,基于Transformer的方法在多种图像修复任务中取得了令人瞩目的性能。然而,传统的自注意力机制在计算复杂度上随输入尺寸呈二次增长,这限制了其在图像修复任务中的进一步应用。为此,本文提出了一种用于图像修复的条带注意力网络(Strip Attention Network, SANet),以更高效且有效地整合上下文信息。具体而言,我们设计了一种条带注意力单元,通过利用同一行或同一列中邻近像素的信息,为每个像素提取上下文特征。通过在不同方向上应用该操作,每个位置能够感知更大范围内的信息。此外,我们在不同的特征组中引入多样化的感受野,以增强特征表示能力。将上述设计整合至U型主干网络中,所提出的SANet在多个图像修复任务上均优于当前最先进的算法。代码已开源,地址为:https://github.com/c-yn/SANet。