
새로운 작업을 배우는 동안 이전에 학습한 작업을 잊지 않는 능력, 즉 지속적 학습(incremental learning)은 치명적인 잊음(catastrophic forgetting)으로 인해 큰 도전 과제이다. 특히 새로운 작업에 사용 가능한 레이블링된 학습 샘플이 매우 적은 경우 이 문제는 더욱 심화된다. 현재 대부분의 기법은 클래스 증분 학습(class-incremental learning)에 초점을 맞추고 있으며, 추가로 도입되는 클래스를 학습하기 위해 충분한 학습 데이터를 기반으로 새로운 가중치를 학습하는 데 의존한다. 이러한 방법들은 증분 회귀 문제로 쉽게 확장되기 어렵고, 소수 샘플(few-shot) 기반의 새로운 작업을 학습할 경우 심각한 과적합(overfitting)에 노출될 수 있다. 본 연구에서는 깊이 있는 임베딩 공간에서 비모수적(nonparametric) 방법을 제안하여 증분 소수 샘플 학습 문제를 해결한다. 학습된 작업에 대한 지식은 소수의 양자화된 참조 벡터로 압축된다. 제안하는 방법은 각 새로운 작업에서 소수의 샘플을 이용해 모델에 더 많은 참조 벡터를 순차적으로 추가함으로써 새로운 작업을 학습한다. 분류 문제의 경우, 희소하게 제공되는 데이터에 대해 가장 가까운 이웃(nearest neighbor) 기반의 분류 방식을 활용하며, 클래스 내 변동성(intra-class variation)을 고려하고, 잊음 최소화 정규화(regularization) 및 참조 벡터의 보정(calibration)을 도입하여 치명적인 잊음을 완화한다. 또한, 제안하는 깊이 있는 임베딩 공간 내 학습 벡터 양자화(LVQ) 기법은 증분 소수 샘플 회귀 문제를 처리하기 위해 커널 스무딩(kernel smoother)으로 커스터마이징할 수 있다. 실험 결과, 제안한 방법이 증분 학습 분야에서 기존 최첨단 기법들을 모두 능가함을 입증하였다.