초록
오랜 기간 동안 연구되어온 이미지 복원은 저하된 이미지로부터 잠재된 선명한 이미지를 복원하는 것을 목표로 한다. 최근 들어, 자기 주의(self-attention)가 장거리 의존성을 효과적으로 포착할 수 있다는 강점으로 인해, 트랜스포머 기반의 방법들이 다양한 이미지 복원 과제에서 탁월한 성능을 보여주고 있다. 그러나 전통적인 자기 주의는 입력 크기에 대해 2차 복잡도를 가지며, 이는 이미지 복원 분야에서의 보다 광범위한 응용을 저해하고 있다. 본 논문에서는 더 효율적이고 효과적인 방식으로 정보를 통합하기 위해, 스트립 주의 네트워크(Strip Attention Network, SANet)를 제안한다. 구체적으로, 각 픽셀에 대해 동일한 행 또는 열 내 인접한 픽셀들로부터 맥락 정보를 수집하는 스트립 주의 유닛을 도입한다. 이러한 연산을 다양한 방향에 걸쳐 적용함으로써, 각 위치가 확장된 영역의 정보를 인지할 수 있게 된다. 또한, 다양한 수용 필드(receptive field)를 서로 다른 특징 그룹에 적용하여 표현 학습 능력을 강화한다. 이러한 설계를 U-형 백본(U-shaped backbone)에 통합함으로써, 제안한 SANet은 여러 이미지 복원 과제에서 최첨단 알고리즘들과 경쟁적으로 우수한 성능을 달성한다. 코드는 https://github.com/c-yn/SANet 에서 공개되어 있다.