Command Palette
Search for a command to run...
Apprentissage continu
L'apprentissage continu, également connu sous le nom d'apprentissage incrémentiel ou apprentissage tout au long de la vie, désigne les méthodes d'entraînement de modèles qui apprennent de manière séquentielle plusieurs tâches tout en conservant les connaissances acquises lors des tâches précédentes. Cette approche implique de valider le modèle avec des identifiants de tâche (task-ids) pendant l'entraînement sur de nouvelles tâches, sans accéder aux données des anciennes tâches. L'apprentissage continu vise à améliorer l'adaptabilité du modèle dans des environnements dynamiques et présente une valeur d'application importante, notamment dans des scénarios où les données évoluent constamment.
ASC (19 tasks)
CTR
visual domain decathlon (10 tasks)
Res. adapt. decay
Cifar100 (20 tasks)
Model Zoo-Continual
Tiny-ImageNet (10tasks)
ALTA-ViTB/16
F-CelebA (10 tasks)
CAT (CNN backbone)
Wikiart (Fine-grained 6 Tasks)
CUBS (Fine-grained 6 Tasks)
CondConvContinual
Stanford Cars (Fine-grained 6 Tasks)
CPG
Flowers (Fine-grained 6 Tasks)
CondConvContinual
DSC (10 tasks)
CTR
Sketch (Fine-grained 6 Tasks)
20Newsgroup (10 tasks)
ImageNet (Fine-grained 6 Tasks)
CondConvContinual
ImageNet-50 (5 tasks)
CondConvContinual
Cifar100 (10 tasks)
RMN (Resnet)
Permuted MNIST
RMN
split CIFAR-100
Coarse-CIFAR100
Model Zoo-Continual
Split MNIST (5 tasks)
H$^{2}$
5-Datasets
mini-Imagenet (20 tasks) - 1 epoch
TAG-RMSProp
Split CIFAR-10 (5 tasks)
H$^{2}$
MiniImageNet ResNet-18 - 300 Epochs
5-dataset - 1 epoch
CIFAR-100 AlexNet - 300 Epoch
TinyImageNet ResNet-18 - 300 Epochs
CIFAR-100 ResNet-18 - 300 Epochs
IBM
miniImagenet
Rotated MNIST
Model Zoo-Continual
Cifar100 (20 tasks) - 1 epoch
CUB-200-2011 (20 tasks) - 1 epoch
MLT17