2달 전

Exemplar-free Class Incremental Learning via Discriminative and Comparable One-class Classifiers 예제 없는 클래스 증가 학습을 위한 차별적이고 유사한 단일 클래스 분류기의 활용

Sun, Wenju ; Li, Qingyong ; Zhang, Jing ; Wang, Danyu ; Wang, Wen ; Geng, Yangli-ao
Exemplar-free Class Incremental Learning via Discriminative and Comparable One-class Classifiers
예제 없는 클래스 증가 학습을 위한 차별적이고 유사한 단일 클래스 분류기의 활용
초록

예제 없는 클래스 증분 학습은 기존 샘플을 유지하지 않고 새로운 클래스 지식을 점진적으로 학습하도록 분류 모델에 요구됩니다. 최근에는 각 카테고리마다 독립적으로 하나의 클래스 분류기를 훈련시키는 병렬 하나의 클래스 분류기(Parallel One-Class Classifiers, POC) 기반 프레임워크가 주목받고 있습니다. 이는 자연스럽게 재앙적 망각(catastrophic forgetting)을 피할 수 있기 때문입니다. 그러나 POC는 서로 다른 OOCs를 독립적으로 훈련시키는 전략 때문에 판별력과 비교성이 약하다는 단점이 있습니다. 이러한 도전 과제를 해결하기 위해, 우리는 판별적이고 비교 가능한 하나의 클래스 분류기를 위한 증분 학습(Discriminative and Comparable One-class classifiers for Incremental Learning, DisCOIL)이라는 새로운 프레임워크를 제안합니다. DisCOIL은 POC의 기본 원칙을 따르지만, 깊은 SVDD(deep SVDD)와 같은 잘 알려진 하나의 클래스 분류기 대신 변분 오토인코더(Variational Auto-Encoders, VAE)를 사용합니다.这是因为训练好的VAE不仅能识别输入样本属于某个类别的概率,还能生成该类别的伪样本以辅助新任务的学习。이러한 장점을 활용하여 DisCOIL은 기존 클래스 VAE와 대조하여 새로운 클래스 VAE를 훈련시킵니다. 이로 인해 새로운 클래스 VAE는 새로운 클래스 샘플에 대해 더 나은 재구성을 수행하면서 기존 클래스의 가짜 샘플에 대해서는 더 나쁜 재구성을 수행하게 되어 비교성을 향상시킵니다. 또한, DisCOIL은 판별력을 보장하기 위해 합页重构损失(hinge reconstruction loss)를 도입합니다. 우리는 MNIST, CIFAR10 및 Tiny-ImageNet에서 우리의 방법을 광범위하게 평가했습니다. 실험 결과 DisCOIL이 최신 성능(state-of-the-art performance)을 달성함을 확인할 수 있었습니다.注:在上述翻译中,“合页重构损失”是“hinge reconstruction loss”的直译,由于这个术语在韩文中并不常见,因此保留了英文标注。

Exemplar-free Class Incremental Learning via Discriminative and Comparable One-class Classifiers 예제 없는 클래스 증가 학습을 위한 차별적이고 유사한 단일 클래스 분류기의 활용 | 최신 연구 논문 | HyperAI초신경