
비디오 블러링 제거는 현재 프레임의 흐린 영역을 복원하기 위해 영상 시퀀스 내 다른 프레임에서 정보를 활용하는 데 의존한다. 주류 기법들은 이중 방향 특징 전파(bidirectional feature propagation), 공간-시간 트랜스포머(spatio-temporal transformer), 또는 이 둘의 조합을 사용하여 영상 시퀀스로부터 정보를 추출한다. 그러나 메모리 및 계산 자원의 제약으로 인해 공간-시간 트랜스포머의 시간 창 길이(temporal window length)가 제한되며, 이로 인해 영상 시퀀스에서 장거리 시간적 맥락 정보를 효과적으로 추출할 수 없다. 또한 이중 방향 특징 전파는 흐린 프레임에서 정확하지 않은 광학 흐름(optical flow)에 매우 민감하여 전파 과정에서 오차가 누적되는 문제가 발생한다. 이러한 문제를 해결하기 위해 본 연구에서는 \textbf{BSSTNet}(\textbf{B}lur-aware \textbf{S}patio-temporal \textbf{S}parse \textbf{T}ransformer Network)을 제안한다. BSSTNet은 원래 밀도 높은 어텐션을 희소 형태로 변환하는 블러 맵(blur map)을 도입하여, 전체 영상 시퀀스에 걸쳐 정보를 보다 효과적으로 활용할 수 있도록 한다. 구체적으로 BSSTNet은 (1) 트랜스포머 내에서 더 긴 시간 창을 사용하여 현재 프레임의 흐린 픽셀을 복원하기 위해 더 멀리 떨어진 프레임들로부터 정보를 활용한다. (2) 블러 맵에 의해 안내되는 이중 방향 특징 전파를 도입함으로써 흐린 프레임으로 인한 오차 누적을 줄인다. 실험 결과, 제안한 BSSTNet이 GoPro 및 DVD 데이터셋에서 최신 기법들을 모두 상회하는 성능을 보였다.