継続学習
継続学習、または逐次学習や生涯学習とも呼ばれる手法は、モデルが複数のタスクを順次学習しながら、以前のタスクから得た知識を保持するための訓練方法です。このアプローチでは、新しいタスクの訓練中にタスク識別子(task-ids)を使用してモデルを検証しますが、古いタスクのデータにはアクセスしません。継続学習は、モデルの動的な環境への適応性を向上させることを目指しており、特にデータが常に変化するシナリオにおいて大きな応用価値があります。
ASC (19 tasks)
CTR
visual domain decathlon (10 tasks)
Res. adapt. decay
Cifar100 (20 tasks)
Model Zoo-Continual
Tiny-ImageNet (10tasks)
ALTA-ViTB/16
F-CelebA (10 tasks)
CAT (CNN backbone)
20Newsgroup (10 tasks)
CUBS (Fine-grained 6 Tasks)
CondConvContinual
DSC (10 tasks)
CTR
Flowers (Fine-grained 6 Tasks)
CondConvContinual
ImageNet (Fine-grained 6 Tasks)
CondConvContinual
Sketch (Fine-grained 6 Tasks)
Stanford Cars (Fine-grained 6 Tasks)
CPG
Wikiart (Fine-grained 6 Tasks)
Cifar100 (10 tasks)
RMN (Resnet)
ImageNet-50 (5 tasks)
CondConvContinual
Permuted MNIST
RMN
split CIFAR-100
5-dataset - 1 epoch
5-Datasets
CIFAR-100 AlexNet - 300 Epoch
CIFAR-100 ResNet-18 - 300 Epochs
IBM
Cifar100 (20 tasks) - 1 epoch
Coarse-CIFAR100
Model Zoo-Continual
CUB-200-2011 (20 tasks) - 1 epoch
mini-Imagenet (20 tasks) - 1 epoch
TAG-RMSProp
miniImagenet
MiniImageNet ResNet-18 - 300 Epochs
MLT17
Rotated MNIST
Model Zoo-Continual
Split CIFAR-10 (5 tasks)
H$^{2}$
Split MNIST (5 tasks)
H$^{2}$
TinyImageNet ResNet-18 - 300 Epochs