17일 전
통합적이고 효과적인 도메인 일반화를 향해
Yiyuan Zhang, Kaixiong Gong, Xiaohan Ding, Kaipeng Zhang, Fangrui Lv, Kurt Keutzer, Xiangyu Yue

초록
우리는 기존 아키텍처에 관계없이 기초 모델의 분포 외 일반화 성능을 크게 향상시킬 수 있는 새로운 통합적 프레임워크인 $\textbf{UniDG}$를 제안한다. UniDG의 핵심 아이디어는 추론 단계에서 모델을 미세 조정(finetune)하는 것으로, 반복적인 학습 과정의 비용을 절감할 수 있다. 구체적으로, 모델이 테스트 데이터의 분포를 비지도 방식으로 학습하도록 유도하고, 모델 파라미터 갱신 단계에 대해 정규화 페널티를 도입한다. 이 페널티 항은 기존 모델에 저장된 유용한 지식을 최대한 보존하고자 하는 의도에 따라 치명적인 망각(catastrophic forgetting) 문제를 효과적으로 완화한다. 실험적으로, CNN-, MLP-, Transformer 기반 모델을 포함한 총 12개의 시각적 백본(visual backbones)에 대해 1.89M에서 303M 파라미터 규모의 다양한 모델에서 DomainBed 기준으로 평균 +5.4%의 정확도 향상을 입증하였다. 이러한 성능 결과는 UniDG의 우수성과 뛰어난 보편성을 입증한다. 코드는 공개적으로 제공되며, https://github.com/invictus717/UniDG 에서 확인할 수 있다.