
컴퓨터 비전 분야에서 해결되지 않은 중요한 문제 중 하나는 알고리즘이 이미지 도메인의 변화에 대해 강건(robust)하도록 보장하는 것이다. 본 연구는 타겟 도메인의 이미지만 접근 가능하고, 레이블(annotations)은 제공되지 않는 상황에서 이 문제를 다룬다. 실제 세계에서 발생하는 Out-of-Domain (OOD) 간섭 요소와 가림 현상이 존재하는 OOD-CV 벤치마크의 도전 과제에 영감을 받아, 객체 분류에 대한 새로운 베이지안 접근법을 제안한다. 본 연구는 기존에 가림 현상에 강건함이 입증된 구성형 신경망(Compositional Neural Networks, CompNets)의 한계 — 즉, OOD 데이터에서 성능이 크게 저하되는 문제 — 를 보완한다. CompNets는 특징 벡터를 von Mises-Fisher (vMF) 커널로 표현한 생성형 헤드(generative head)를 내포하고 있으며, 이 vMF 커널들은 대략적으로 객체의 부분(part)을 나타내며, 비지도 학습을 통해 학습될 수 있다는 점을 활용한다. 우리는 서로 다른 도메인 간에 일부 vMF 커널이 유사한 반면, 다른 일부는 유사하지 않다는 관찰을 하였다. 이를 바탕으로 원천 도메인과 타겟 도메인 사이의 중간 상태에 해당하는 vMF 커널의 전이 사전(transition dictionary)을 학습하고, 원천 도메인의 레이블을 활용하여 이 사전을 기반으로 생성 모델을 학습한 후, 반복적 개선(iterative refinement)을 수행한다. 이 접근법을 '비지도 생성 전이(Unsupervised Generative Transition, UGT)'라고 명명한다. UGT는 가림 현상이 존재하는 상황에서도 OOD 시나리오에서 매우 우수한 성능을 보인다. UGT는 OOD-CV 데이터셋을 포함한 다양한 OOD 벤치마크, 여러 인기 있는 데이터셋(예: ImageNet-C [9]), 인공적인 이미지 손상(가림체 추가 포함), 그리고 합성 이미지에서 실세계로의 도메인 전이 시나리오에서 평가되었으며, 모든 상황에서 최첨단(SOTA) 대안보다 뛰어난 성능을 나타냈다. 특히, 가림이 있는 OOD-CV 데이터셋에서 최대 10%의 top-1 정확도 향상을 기록하였다.