포워드 호환성 있는 희소 샘플 클래스 증분 학습

우리의 동적으로 변화하는 세상에서 새로운 클래스가 자주 등장한다. 예를 들어 인증 시스템에서 새로운 사용자가 추가될 때, 머신러닝 모델은 기존 클래스를 잊지 않으면서도 새로운 클래스를 인식할 수 있어야 한다. 그러나 새로운 클래스의 인스턴스가 부족할 경우, 이 문제는 더욱 어려워지며, 이를 소수 샘플 기반 계층적 증분 학습(Few-Shot Class-Incremental Learning, FSCIL)이라 한다. 기존의 방법들은 업데이트된 모델이 이전 모델과 유사하도록 하여 증분 학습을 후행적으로 처리한다. 반면에, 우리는 미래의 업데이트를 사전에 준비하는 전방적 학습 방식을 제안하며, FSCIL을 위한 전방 호환성 학습(ForwArd Compatible Training, FACT)을 제안한다. 전방 호환성은 현재 단계의 데이터 기반으로 미래에 등장할 새로운 클래스를 현재 모델에 쉽게 통합할 수 있도록 하는 것을 의미하며, 이를 위해 우리는 미래의 새로운 클래스를 위한 임베딩 공간을 예약하는 방식으로 실현하고자 한다. 구체적으로, 기존 클래스의 임베딩을 압축하기 위해 가상 프로토타입을 할당하고, 새로운 클래스를 위한 공간을 확보한다. 또한, 가능한 새로운 클래스를 예측하고 업데이트 과정에 대비한다. 이러한 가상 프로토타입은 모델이 미래에 발생할 수 있는 업데이트를 수용할 수 있도록 하며, 임베딩 공간 내에 분산된 대리자 역할을 수행하여 추론 시 더 강력한 분류기를 구축한다. FACT는 전방 호환성을 효율적으로 구현하면서도 기존 클래스의 기억 상실을 억제하는 데 성공한다. 광범위한 실험을 통해 FACT의 최신 기술 수준 성능이 입증되었으며, 코드는 다음 주소에서 확인할 수 있다: https://github.com/zhoudw-zdw/CVPR22-Fact