
실제 데이터는 종종 불균형하고 긴 꼬리(long-tailed) 분포를 보이지만, 딥 모델은 흔한 클래스가 존재하는 환경에서 드문 클래스를 인식하는 데 어려움을 겪는다. 불균형 데이터 문제를 해결하기 위해 대부분의 연구들은 데이터, 손실 함수, 또는 분류기의 균형을 맞추는 방식을 시도하여 헤드 클래스(주류 클래스)에 대한 분류 편향을 줄이려 한다. 그러나 불균형 데이터로 학습된 잠재 표현(latent representations)에 대한 관심은 훨씬 적었다. 본 연구에서는 딥 네트워크의 특징 추출기 부분이 이러한 편향으로 인해 심각한 영향을 받음을 보여준다. 우리는 강건성 이론(robustness theory)을 기반으로 한 새로운 손실 함수를 제안하며, 이는 헤드 클래스와 테일 클래스 모두에 대해 고품질의 표현을 학습하도록 모델을 유도한다. 일반적인 형태의 강건성 손실은 계산이 어려울 수 있으나, 이를 효율적으로 최소화할 수 있는 계산이 간편한 상한값(upper bound)을 추가로 도출하였다. 이 과정은 특징 공간에서 헤드 클래스에 대한 표현 편향을 감소시키며, CIFAR100-LT, ImageNet-LT, iNaturalist 등 긴 꼬리 기준 평가에서 새로운 최고 성능(SOTA)을 달성한다. 또한 강건성 기반 학습이 테일 클래스의 인식 정확도를 높이면서도 헤드 클래스의 정확도는 대체로 유지함을 발견하였다. 제안한 강건성 손실은 다양한 분류기 균형 기법과 결합 가능하며, 딥 모델의 여러 계층에서의 표현에 적용할 수 있다.