
실제 오픈 월드에서는 데이터가 일반적으로 긴 꼬리(class) 분포를 따르기 때문에, 장기간 연구되어온 긴 꼬리 인식(Long-Tailed Recognition, LTR) 문제에 대한 관심이 높아지고 있다. 단순한 학습 방식은 일반적인 클래스에 대해 더 높은 정확도를 보이도록 모델을 편향시키는 경향이 있다. LTR 문제를 해결하기 위한 핵심은 데이터 분포, 학습 손실, 기울기 등 다양한 측면을 균형 있게 조절하는 것이다. 본 연구는 이러한 접근과는 다른 방향, 즉 가중치 균형화(weight balancing)에 주목한다. 이는 직관적으로 훈련된 분류기에서 일반적인 클래스에 대해 '인위적으로' 크기가 더 큰 가중치(norm)가 형성되는 현상을 관찰한 데서 비롯된다(희귀 클래스에 비해 일반적인 클래스는 훨씬 많은 데이터가 존재하기 때문이다). 우리는 세 가지 기법을 통해 가중치 균형을 도모하는 방법을 탐구한다: L2 정규화, 가중치 감쇠(weight decay), MaxNorm 제약. 먼저, L2 정규화는 각 클래스의 가중치를 정확히 단위 노름(unit norm)으로 균형 있게 만든다는 점을 지적하지만, 이러한 강한 제약은 클래스별 분류기의 학습을 방해할 수 있음을 보여준다. 반면, 가중치 감쇠는 더 큰 가중치에 더 강한 페널티를 부여함으로써 작고 균형 잡힌 가중치를 학습하게 한다. MaxNorm 제약은 노름 공(노름 구역) 내에서 작은 가중치를 성장시키도록 유도하지만, 모든 가중치의 크기를 반경으로 제한한다. 광범위한 실험 결과에 따르면, 두 가지 방법 모두 균형 잡힌 가중치를 학습하는 데 도움이 되며 LTR의 정확도를 크게 향상시킨다. 놀랍게도, LTR 분야에서 오랫동안 다루어지지 않았던 가중치 감쇠가 기존 방법보다 뚜렷한 성능 향상을 보였다. 따라서 우리는 두 단계 훈련 파라다임을 도입하고, LTR에 대한 간단하면서도 효과적인 접근법을 제안한다: (1) 가중치 감쇠를 조정하여 교차 엔트로피 손실을 사용해 특징을 학습하고, (2) 클래스 균형 손실을 사용해 가중치 감쇠와 MaxNorm을 조정하여 분류기를 학습한다. 제안하는 방법은 다섯 개의 표준 벤치마크에서 최신 기술(SOTA) 수준의 정확도를 달성하였으며, 향후 긴 꼬리 인식 연구의 기준이 될 것으로 기대된다.