
클래스 증분 학습(Class-Incremental Learning, CIL) [40]은 엄격한 메모리 예산 내에서 분류기를 학습하는 방식으로, 각 증분 단계에서 새로운 데이터에 대해 학습이 이루어지며, 대부분의 데이터는 다음 단계를 위해 공간을 확보하기 위해 폐기된다. 보존된 데이터는 재생(replay)에 사용되는 예시(exemplars)로 활용된다. 그러나 기존 방법들은 메모리 할당에 대해 정적이고 사전 설정된 전략을 사용하기 때문에 종종 최적의 성능을 달성하지 못한다. 본 연구에서는 증분 단계와 다양한 객체 클래스에 최적화된 동적 메모리 관리 전략을 제안한다. 이를 위해 강화학습을 활용한 강화된 메모리 관리(Reinforced Memory Management, RMM) 방법을 도입한다. RMM의 학습은 CIL 환경과 자연스럽게 호환되지 않으며, 증분 단계 중 과거 및 미래 데이터에 접근이 엄격히 제한된다. 이 문제를 해결하기 위해, RMM의 정책 함수를 가상의 CIL 작업(예: 0단계 데이터 기반으로 구성된 작업)에서 학습한 후, 실제 타겟 작업에 적용한다. RMM은 두 수준의 동작을 전파한다. Level-1은 기존 클래스와 새로운 클래스 간에 메모리를 어떻게 분할할지를 결정하며, Level-2는 각 구체적인 클래스에 대해 메모리를 어떻게 할당할지를 결정한다. 본질적으로 RMM은 재생 기반 CIL 방법에 적용 가능한 최적화 가능하고 일반적인 메모리 관리 방법이다. 평가를 위해 RMM을 두 가지 최고 성능을 보이는 기준 모델(LUCIR+AANets 및 POD+AANets [30])에 통합하고, CIFAR-100, ImageNet-Subset, ImageNet-Full 세 가지 벤치마크에서 실험을 수행하였다. 실험 결과, 각 벤치마크의 25단계 설정에서 POD+AANets의 성능을 각각 3.6%, 4.4%, 1.9% 향상시키는 등 명확한 성능 개선을 확인할 수 있었다.