Kontinuierliches Lernen
Continual Learning, auch bekannt als Inkrementelles Lernen oder Lebenslanges Lernen, bezieht sich auf Trainingsmethoden für Modelle, die mehrere Aufgaben nacheinander lernen, während sie das Wissen aus früheren Aufgaben beibehalten. Dieser Ansatz umfasst die Validierung des Modells mit Aufgabenidentifikatoren (Task-IDs) während des Trainings neuer Aufgaben, ohne auf Daten alter Aufgaben zuzugreifen. Continual Learning zielt darauf ab, die Anpassungsfähigkeit eines Modells in dynamischen Umgebungen zu verbessern und hat erheblichen Anwendungswert, insbesondere in Szenarien, in denen die Daten ständig wechseln.
ASC (19 tasks)
CTR
visual domain decathlon (10 tasks)
Res. adapt. decay
Cifar100 (20 tasks)
Model Zoo-Continual
Tiny-ImageNet (10tasks)
ALTA-ViTB/16
F-CelebA (10 tasks)
CAT (CNN backbone)
20Newsgroup (10 tasks)
CUBS (Fine-grained 6 Tasks)
CondConvContinual
DSC (10 tasks)
CTR
Flowers (Fine-grained 6 Tasks)
CondConvContinual
ImageNet (Fine-grained 6 Tasks)
CondConvContinual
Sketch (Fine-grained 6 Tasks)
Stanford Cars (Fine-grained 6 Tasks)
CPG
Wikiart (Fine-grained 6 Tasks)
Cifar100 (10 tasks)
RMN (Resnet)
ImageNet-50 (5 tasks)
CondConvContinual
Permuted MNIST
RMN
split CIFAR-100
5-dataset - 1 epoch
5-Datasets
CIFAR-100 AlexNet - 300 Epoch
CIFAR-100 ResNet-18 - 300 Epochs
IBM
Cifar100 (20 tasks) - 1 epoch
Coarse-CIFAR100
Model Zoo-Continual
CUB-200-2011 (20 tasks) - 1 epoch
mini-Imagenet (20 tasks) - 1 epoch
TAG-RMSProp
miniImagenet
MiniImageNet ResNet-18 - 300 Epochs
MLT17
Rotated MNIST
Model Zoo-Continual
Split CIFAR-10 (5 tasks)
H$^{2}$
Split MNIST (5 tasks)
H$^{2}$
TinyImageNet ResNet-18 - 300 Epochs