
초록
최근의 도메인 적응 연구에서는 비지도 도메인 적응을 위한 딥 셀프 트레이닝이 강력한 수단임을 보여주고 있습니다. 이러한 방법들은 일반적으로 타겟 도메인에서 예측을 수행하고, 그 중 확신할 수 있는 예측들을 의사 라벨로 사용하여 재학습하는 반복 과정을 포함합니다. 그러나 의사 라벨은 노이즈를 포함할 수 있으므로, 셀프 트레이닝은 잘못된 클래스에 지나치게 확신 있는 라벨 신념을 부여하여 오류가 전파되는 편향된 해법으로 이어질 수 있습니다. 이 문제를 해결하기 위해, 우리는 확신 정규화 셀프 튠링(CRST) 프레임워크를 제안합니다. 이 방법은 정규화된 셀프 튠링으로 공식화되며, 의사 라벨들을 연속적인 잠재 변수로 취급하여 교대 최적화를 통해 공동 최적화합니다. 우리는 두 가지 유형의 확신 정규화를 제안합니다: 라벨 정규화(LR)와 모델 정규화(MR). CRST-LR는 부드러운 의사 라벨을 생성하며, CRST-MR는 네트워크 출력의 매끄러움을 장려합니다. 이미지 분류와 의미 분할에 대한 광범위한 실험 결과, CRSTs는 최신 성능을 갖춘 비정규화된 대응 방법보다 우수한 성능을 보였습니다. 본 연구의 코드와 모델은 https://github.com/yzou2/CRST에서 이용 가능합니다.