단일 이미지 흐림 제거를 위한 컴팩트한 대조 학습

단일 이미지 화이트닝은 정보 손실이 심각하여 해결하기 어려운 부정확한 문제로 간주된다. 그러나 기존의 딥러닝 기반 화이트닝 방법들은 화이트닝된 이미지를 양성 샘플로만 활용하여 화이트닝 네트워크의 학습을 유도하는 반면, 음성 정보는 활용되지 않고 있다. 게다가 대부분의 기존 방법들은 깊이와 폭을 증가시켜 네트워크를 강화하는 데 집중함으로써 계산 및 메모리 요구량이 크게 증가하는 문제가 있다. 본 논문에서는 대비 학습(contrastive learning) 기반으로 새로운 대비 정규화(Contrastive Regularization, CR)를 제안한다. CR은 흐린 이미지를 음성 샘플로, 선명한 이미지를 양성 샘플로 활용하여 흐린 이미지와 선명한 이미지의 정보를 모두 효과적으로 활용한다. 이를 통해 복원된 이미지가 표현 공간에서 선명한 이미지에 가까워지고, 흐린 이미지로부터 멀어지도록 보장한다. 또한 성능과 메모리 사용량 간의 균형을 고려하여, 자동에코더(autoencoder-like, AE) 구조를 기반으로 한 컴팩트한 화이트닝 네트워크를 개발하였다. 이 네트워크는 적응형 미스업(adaptive mixup) 연산과 동적 특징 증강 모듈(dynamic feature enhancement module)을 포함하며, 각각 정보 흐름을 적응적으로 보존하고 수용 영역(receptive field)을 확장함으로써 네트워크의 변환 능력을 향상시킨다. 자동에코더 구조와 대비 정규화를 결합한 본 화이트닝 네트워크를 AECR-Net이라 명명한다. 합성 및 실제 데이터셋에 대한 광범위한 실험 결과는 AECR-Net이 기존 최고 수준의 방법들을 능가함을 입증한다. 코드는 https://github.com/GlassyWu/AECR-Net 에 공개되어 있다.