지속 학습
지속 학습(Continual Learning), 또는 순차 학습(Incremental Learning) 또는 생애 학습(Life-long Learning)은 이전 작업에서 얻은 지식을 유지하면서 여러 작업을 순차적으로 학습하는 모델 훈련 방법을 의미합니다. 이 접근 방식은 새로운 작업 훈련 중에 작업 식별자(task-ids)를 사용하여 모델을 검증하지만, 이전 작업의 데이터에 접근하지 않습니다. 지속 학습은 모델의 적응성을 동적 환경에서 향상시키는 것을 목표로 하며, 특히 데이터가 지속적으로 변화하는 시나리오에서 큰 응용 가치를 가지고 있습니다.
ASC (19 tasks)
CTR
visual domain decathlon (10 tasks)
Res. adapt. decay
Cifar100 (20 tasks)
Model Zoo-Continual
Tiny-ImageNet (10tasks)
ALTA-ViTB/16
F-CelebA (10 tasks)
CAT (CNN backbone)
20Newsgroup (10 tasks)
CUBS (Fine-grained 6 Tasks)
CondConvContinual
DSC (10 tasks)
CTR
Flowers (Fine-grained 6 Tasks)
CondConvContinual
ImageNet (Fine-grained 6 Tasks)
CondConvContinual
Sketch (Fine-grained 6 Tasks)
Stanford Cars (Fine-grained 6 Tasks)
CPG
Wikiart (Fine-grained 6 Tasks)
Cifar100 (10 tasks)
RMN (Resnet)
ImageNet-50 (5 tasks)
CondConvContinual
Permuted MNIST
RMN
split CIFAR-100
5-dataset - 1 epoch
5-Datasets
CIFAR-100 AlexNet - 300 Epoch
CIFAR-100 ResNet-18 - 300 Epochs
IBM
Cifar100 (20 tasks) - 1 epoch
Coarse-CIFAR100
Model Zoo-Continual
CUB-200-2011 (20 tasks) - 1 epoch
mini-Imagenet (20 tasks) - 1 epoch
TAG-RMSProp
miniImagenet
MiniImageNet ResNet-18 - 300 Epochs
MLT17
Rotated MNIST
Model Zoo-Continual
Split CIFAR-10 (5 tasks)
H$^{2}$
Split MNIST (5 tasks)
H$^{2}$
TinyImageNet ResNet-18 - 300 Epochs