17일 전

평균의 앙상블: 도메인 일반화에서 모델 선택 개선 및 성능 향상

Devansh Arpit, Huan Wang, Yingbo Zhou, Caiming Xiong
평균의 앙상블: 도메인 일반화에서 모델 선택 개선 및 성능 향상
초록

도메인 일반화(Domain Generalization, DG) 환경에서는 주어진 훈련 도메인들에 독립적으로 훈련된 모델들이 분포가 이동된 테스트 도메인에서 뚜렷하게 불안정하고 예측 불가능한 성능을 보이며, 최적화 과정에서의 확률적 요인(예: 시드 값)이 이 현상에 큰 영향을 미친다. 이는 실세계 환경에서 딥러닝 모델의 신뢰성에 심각한 문제를 야기한다. 본 연구에서는 이러한 혼란스러운 행동이 단일 모델의 훈련 최적화 경로 내에서도 존재함을 처음으로 입증하고, 도메인 일반화 성능을 크게 향상시키며 확률적 요인의 영향을 완화하는 간단한 모델 평균화 프로토콜을 제안한다. 이는 내도메인 검증 정확도와 외도메인 테스트 정확도 간의 순위 상관관계를 개선함으로써 신뢰할 수 있는 조기 정지(early stopping)를 가능하게 한다. 우리의 관찰을 활용해, 실제 적용에서 흔히 사용되는 평균화되지 않은 모델의 앙상블을 사용하는 대신, 독립적인 실행에서 얻은 이동 평균 모델(Ensembling of Averages, EoA)을 앙상블하는 것이 성능을 더욱 향상시킴을 보였다. 또한, 도메인 일반화 환경에 잘 알려진 편향-분산 트레이드오프를 적응시켜, 모델 평균화 및 앙상블이 성능을 향상시키는 이론적 근거를 제시하였다. DomainBed 벤치마크에서 사전 훈련된 ResNet-50을 사용할 경우, 본 연구에서 제안하는 평균 모델의 앙상블은 평균 68.0%의 성능을 기록하여, 단순한 ERM(평균화/앙상블 없음) 대비 약 4% 향상되었으며, 사전 훈련된 RegNetY-16GF를 사용할 경우 평균 76.6%의 성능을 달성하여, 동일한 기준 대비 6% 향상되었다. 본 연구의 코드는 https://github.com/salesforce/ensemble-of-averages 에서 공개되어 있다.

평균의 앙상블: 도메인 일반화에서 모델 선택 개선 및 성능 향상 | 최신 연구 논문 | HyperAI초신경