나누고 대비하라: 적응형 대비 학습을 통한 소스 프리 도메인 적응

우리는 원본 데이터에 접근할 수 없지만 원본 사전 학습 모델을 타겟 도메인에 적응시키는 실용적인 도메인 적응 과제인 소스 프리 도메인 적응(Source-Free Domain Adaptation, SFUDA)을 탐구한다. 기존 기법들은 주로 자기지도 학습 기반의 가짜 레이블링을 활용하여 클래스별 전역적 정렬을 달성하거나[1], 이웃 영역 간의 특징 일관성을 촉진하는 국소 구조 추출에 의존한다[2]. 비록 놀라운 진전이 이루어졌지만, 두 가지 접근법 모두 고유한 한계를 가지고 있다. 전역적 접근은 노이즈가 많은 레이블에 민감한 반면, 국소적 접근은 원본 편향(source bias)에 취약하다. 본 논문에서는 이러한 두 접근법의 장점을 결합하면서도 그 한계를 회피하는 새로운 패러다임인 Divide and Contrast(DaC)를 제안한다. DaC는 원본 모델의 예측 신뢰도를 기반으로 타겟 데이터를 원본 유사 샘플과 타겟 특수 샘플로 분할하며, 적응형 대조 학습 프레임워크 하에서 각 그룹에 맞춤형 목표를 설정한다. 구체적으로, 상대적으로 깨끗한 레이블을 가진 원본 유사 샘플은 전역적인 클래스 클러스터링 학습에 활용된다. 반면, 더 노이즈가 많은 타겟 특수 샘플은 개별 샘플 수준에서 내재된 국소 구조를 학습하는 데 활용된다. 또한 메모리 백업 기반의 최대 평균 차이(MMD) 손실을 사용하여 원본 유사 도메인과 타겟 특수 샘플 간의 분포 불일치를 줄이는 정렬을 수행한다. VisDA, Office-Home, 그리고 더 도전적인 DomainNet에서 수행된 광범위한 실험을 통해 DaC가 현재 최고 수준의 기법들보다 우수한 성능을 보임을 입증하였다. 코드는 https://github.com/ZyeZhang/DaC.git 에서 공개되어 있다.