9일 전
클래스 불균형 데이터에서 효과적인 일반화를 위한 안정점 회피
Harsh Rangwani, Sumukh K Aithal, Mayank Mishra, R. Venkatesh Babu

초록
실세계 데이터셋은 다양한 유형과 정도의 불균형을 보인다. 신경망의 성능, 특히 소수 클래스에 대한 성능을 향상시키기 위해 재가중화(re-weighting) 및 마진 조정(margin adjustment) 기반의 여러 기법이 자주 사용된다. 본 연구에서는 재가중화 및 마진 기반 기법을 사용해 훈련된 신경망의 손실 경관(loss landscape)을 분석함으로써 클래스 불균형 학습 문제를 탐구한다. 구체적으로, 클래스별 손실의 헤시안(Hessian)의 스펙트럼 밀도(spectral density)를 분석하여, 소수 클래스의 손실 경관에서 네트워크 가중치가 안정점(saddle point)으로 수렴함을 관찰한다. 이 관찰을 바탕으로, 안정점을 탈출하기 위해 설계된 최적화 방법이 소수 클래스에 대한 일반화 성능 향상에 효과적으로 활용될 수 있음을 발견하였다. 또한 이론적·실험적으로, 최근 제안된 평탄한 최소점(flatten minima)으로 수렴하도록 유도하는 Sharpness-Aware Minimization(SAM) 기법이 소수 클래스의 안정점 탈출에 효과적으로 활용될 수 있음을 입증하였다. SAM을 적용하면 기존 최고 성능 기법인 Vector Scaling Loss 대비 소수 클래스 정확도가 6.2% 향상되며, 불균형 데이터셋 전체에 걸쳐 평균적으로 4%의 정확도 향상이 가능하다. 코드는 다음 주소에서 확인할 수 있다: https://github.com/val-iisc/Saddle-LongTail.