
긴 꼬리 데이터셋(long-tailed datasets)은 헤드 클래스(head classes)가 테일 클래스(tail classes)보다 훨씬 많은 학습 샘플을 포함함에 따라 인식 모델이 헤드 클래스 쪽으로 편향되는 문제를 야기한다. 가중 손실(weighted loss)은 이 문제를 완화하는 가장 일반적인 방법 중 하나이며, 최근 연구에서는 기존에 널리 사용되는 클래스 빈도(class-frequency) 대신 클래스 난이도(class-difficulty)가 더 나은 가중치 분포 결정 기준이 될 수 있음을 제안하였다. 그러나 이전 연구에서는 난이도를 정량화하기 위해 휴리스틱(heuristic) 방식을 사용하였으나, 우리는 실증적으로 최적의 정량화 방식이 데이터셋의 특성에 따라 달라질 수 있음을 발견하였다. 따라서 우리는 메타학습(meta-learning) 프레임워크를 활용하여 모델의 성능을 기반으로 클래스의 난이도를 예측하는 Difficulty-Net을 제안한다. 특정 클래스의 난이도를 다른 클래스들과의 관계 속에서 합리적으로 학습할 수 있도록 하기 위해, 본 연구에서는 새로운 핵심 개념인 상대적 난이도(relative difficulty)와 드라이버 손실(driver loss)을 도입한다. 상대적 난이도는 클래스의 난이도를 계산할 때 다른 클래스들을 고려하게 하며, 드라이버 손실은 학습이 의미 있는 방향으로 진행되도록 유도하는 데 필수적인 역할을 한다. 주요 긴 꼬리 데이터셋에 대한 광범위한 실험을 통해 제안한 방법의 효과성을 입증하였으며, 여러 긴 꼬리 데이터셋에서 최신 기술(state-of-the-art) 수준의 성능을 달성하였다.