13일 전
소수 샘플 기반 클래스 증분 학습
Xiaoyu Tao, Xiaopeng Hong, Xinyuan Chang, Songlin Dong, Xing Wei, Yihong Gong

초록
새로운 클래스를 점진적으로 학습할 수 있는 능력은 실세계 인공지능 시스템의 발전에 있어 핵심적인 요소이다. 본 논문에서는 도전적이지만 실용적인 소수 샘플 클래스 증분 학습(few-shot class-incremental learning, FSCIL) 문제에 초점을 맞춘다. FSCIL은 기존에 학습한 클래스를 잊지 않으면서도, 매우 적은 수의 레이블링된 샘플로부터 CNN 모델이 새로운 클래스를 점진적으로 학습할 수 있어야 한다. 이 문제를 해결하기 위해, 우리는 다양한 클래스가 형성하는 특징 다양체(feature manifold)의 위상을 효과적으로 학습하고 보존할 수 있는 신경 가스(neural gas, NG) 네트워크를 지식 표현 수단으로 활용한다. 이를 바탕으로, 위상 보존 지식 증강 프레임워크(TOpology-Preserving knowledge InCrementer, TOPIC)를 제안한다. TOPIC은 새로운 학습 샘플에 대해 NG 네트워크를 성장시키고 적응시키는 방식으로 소수 샘플 기반의 새로운 클래스에 대한 표현 학습을 향상시키며, 동시에 NG의 위상 구조를 안정화함으로써 기존 클래스에 대한 기억 상실을 완화한다. 광범위한 실험 결과를 통해 제안한 방법이 CIFAR100, miniImageNet, CUB200 데이터셋에서 기존 최고 수준의 클래스 증분 학습 방법들보다 뛰어난 성능을 보임을 입증하였다.