
전통적인 검출기들은 훈련 데이터의 분포가 극도로 불균형할 때 비대칭 분류를 하게 되고 성능 저하를 겪는 경향이 있다. 본 논문에서는 훈련 중 각 범주에 대한 분류 정확도를 나타내는 평균 분류 점수(mean classification score)를 사용하는 방법을 제안한다. 이 지표를 기반으로, 우리는 Equilibrium Loss (EBL)과 Memory-augmented Feature Sampling (MFS) 방법을 통해 분류의 균형을 맞추고자 한다. 구체적으로, EBL은 두 클래스 사이에서 설계된 점수 안내 손실 마진(score-guided loss margin)을 통해 약한 클래스의 결정 경계 조정 강도를 증가시킨다. 반면에, MFS는 이러한 약한 클래스들의 인스턴스 특성을 과다 샘플링(over-sampling)하여 약한 클래스의 결정 경계 조정 빈도와 정확도를 개선한다. 따라서 EBL과 MFS는 긴 꼬리 검출(long-tailed detection)에서 분류 균형을 찾기 위해 협력적으로 작동하며, 꼬리 클래스(tail classes)의 성능을 크게 향상시키면서 머리 클래스(head classes)의 성능을 유지하거나 심지어 개선한다. 우리는 Mask R-CNN과 ResNet-50-FPN, ResNet-101-FPN 등 다양한 백본(backbones)을 사용하여 LVIS 데이터셋에서 실험을 수행하여 제안된 방법의 우수성을 보여준다. 이 방법은 꼬리 클래스의 검출 성능을 15.6 AP만큼 향상시키며, 가장 최근의 긴 꼬리 객체 검출기(long-tailed object detectors)보다 1 AP 이상 뛰어난 성능을 보인다. 코드는 https://github.com/fcjian/LOCE에서 제공된다.