
실세계 과제에서는 클래스 불균형 문제가 자주 발생하며, 전통적인 딥러닝 알고리즘은 불균형한 학습 데이터셋에서 성능 저하가 잘 알려져 있다. 이러한 문제를 완화하기 위해 많은 연구들이 학습 샘플의 재가중 또는 재샘플링을 통해 주어진 클래스 간의 균형을 맞추는 방향으로 진행되어 왔다. 이러한 재균형 기법들은 소수 클래스의 영향력을 증가시키고 다수 클래스의 영향력을 감소시켜 모델 출력에 미치는 영향을 조절한다. 그러나 소수 클래스의 샘플 수가 제한적이기 때문에, 추출된 표현(representations)의 품질이 낮아질 수 있다. 이 제약을 극복하기 위해, 다수 클래스의 특징을 활용하여 소수 클래스의 표현을 강화하는 방법들이 제안되었다. 최근 많은 연구가 진행되었음에도 불구하고, 증강할 클래스의 선정 기준과 증강 강도를 결정하는 데 대한 심층적인 분석은 여전히 부족하다. 본 연구에서는 먼저 증강 정도와 클래스별 성능 간의 상관관계를 탐구하고, 클래스 불균형 문제를 효과적으로 완화하기 위해 각 클래스에 적절한 수준의 증강 강도를 할당해야 함을 발견하였다. 이러한 발견을 바탕으로, 데이터 증강의 각 클래스별 적절한 강도를 자동으로 탐색할 수 있도록 설계된 간단하고 효율적인 새로운 커리큘럼을 제안한다. 이를 CUDA( CUrriculum of Data Augmentation for long-tailed recognition)라 명명한다. CUDA는 기존의 긴 꼬리(long-tailed) 인식 방법에 간단히 통합할 수 있다. 다양한 불균형 데이터셋(CIFAR-100-LT, ImageNet-LT, iNaturalist 2018)에 대한 실험 결과를 통해 CUDA가 최신 기법 대비 더 우수한 일반화 성능을 효과적으로 달성함을 보여주었다.