
초록
객체 탐지 네트워크는 놀라운 성능 수준에 도달했지만, 특정 응용 분야에서 적절한 데이터 부족으로 인해 실질적인 활용에 한계가 있다. 일반적으로 추가적인 데이터 소스를 활용하여 학습을 지원하지만, 이러한 데이터 소스 간의 도메인 갭(Domain Gap)은 딥러닝에서 큰 도전 과제가 된다. 기존에는 GAN 기반의 이미지-이미지 스타일 전이(Image-to-Image Style Transfer) 기법이 도메인 갭을 축소하는 데 널리 사용되지만, 이는 불안정하며 객체 탐지 작업과는 분리되어 있어 제약이 있다. 본 논문에서는 스타일 전이와 탐지 작업 간에 피드백 루프를 형성할 수 있는 Attention-Weighted Adversarial Domain Adaptation(AWADA) 프레임워크를 제안한다. 객체 탐지기의 제안 영역에서 전경 객체 주의 맵(Attention Maps)을 구성함으로써, 스타일 전이 과정을 전경 객체 영역에 집중시켜 학습의 안정성을 제고한다. 광범위한 실험과 아블레이션 연구를 통해, AWADA가 합성 이미지에서 실환경 이미지로의 전이, 악천후 환경 적응, 크로스 카메라 적응 등과 같은 일반적으로 사용되는 벤치마크에서 비지도 도메인 적응 객체 탐지 성능 측면에서 최신 기준(SOTA, State-of-the-Art)을 달성함을 입증한다.