소수 샘플 증분 학습: 지속적으로 진화하는 분류기와 함께

소수 샘플 지속적 학습(Few-shot Class-Incremental Learning, FSCIL)은 기존 클래스의 지식을 잊지 않으면서, 적은 수의 데이터 포인트로부터 새로운 개념을 지속적으로 학습할 수 있는 머신러닝 알고리즘을 설계하는 것을 목표로 한다. 이 문제의 어려움은 새로운 클래스로부터 얻을 수 있는 제한된 데이터가 심각한 과적합(overfitting) 문제를 야기할 뿐만 아니라, 유명한 '비극적 기억 상실(catastrophic forgetting)' 문제를 악화시킨다는 점에 있다. 또한 FSCIL에서는 학습 데이터가 순차적으로 도착하므로, 학습된 분류기는 각 세션에서 개별적으로 구분 가능한 정보만 제공할 수 있지만, FSCIL은 평가 시 모든 클래스가 포함되어야 한다는 요구 조건을 충족해야 한다. 본 논문에서는 FSCIL 문제를 두 가지 측면에서 해결한다. 첫째, 각 증강 세션에서 분류기만 업데이트하고 표현(representation)은 유지하는 간단하면서도 효과적인 분리 학습 전략을 도입한다. 이는 표현 영역에서의 지식 상실을 방지한다. 이를 통해 사전 학습된 백본(pre-trained backbone)과 비매개변수적 클래스 평균 분류기(class mean classifier)의 조합이 최신 기법들을 능가함을 실험적으로 입증한다. 둘째, 개별 세션에서 학습된 분류기가 모든 클래스에 대해 적용 가능하도록 하기 위해, 분류기 간의 맥락 정보를 전파하는 그래프 모델을 활용한 지속적 진화 분류기(Continually Evolved Classifier, CEC)를 제안한다. CEC의 학습을 가능하게 하기 위해, 기본 데이터셋에서 데이터를 샘플링하여 일시적인 증강 학습 과제를 에피소드적으로 구성하는 의사 증강 학습( pseudo incremental learning) 프레임워크를 설계하였다. CIFAR100, miniImageNet, Caltech-USCD Birds-200-2011(CUB200) 등 세 가지 대표적인 벤치마크 데이터셋에서의 실험 결과, 제안한 방법이 기존 베이스라인을 크게 능가하며, 뚜렷한 우위를 보이며 새로운 최고 성능(SOTA) 기록을 달성하였다.