Résolution de la confusion de tâches dans les architectures d'expansion dynamique pour l'apprentissage incrémental de classes

L’architecture d’expansion dynamique gagne en popularité dans le cadre de l’apprentissage incrémental de classes, principalement en raison de ses avantages pour atténuer le phénomène d’oubli catastrophique. Toutefois, le problème de confusion entre tâches n’est pas suffisamment évalué dans ce cadre : par exemple, les différences entre les classes de tâches différentes ne sont pas bien apprises (confusion inter-tâches, ITC), et une certaine priorité est encore accordée au dernier lot de classes (confusion ancien-nouveau, ONC). Nous validons empiriquement les effets secondaires liés à ces deux types de confusion. Par ailleurs, nous proposons une nouvelle solution appelée Apprentissage Incrémental Corrélation de Tâches (TCIL), visant à encourager une utilisation discriminative et équitable des caractéristiques à travers les tâches. TCIL met en œuvre une distillation de connaissances multi-niveaux afin de transmettre les connaissances acquises lors des tâches anciennes vers la nouvelle tâche. Elle établit des chemins de flux d’information tant au niveau des caractéristiques que des logits, permettant ainsi à l’apprentissage de rester conscient des classes anciennes. En outre, une mécanique d’attention et un re-évaluation du classificateur sont appliquées pour générer des scores de classification plus équitables. Des expérimentations étendues ont été menées sur les jeux de données CIFAR100 et ImageNet100. Les résultats démontrent que TCIL atteint de manière cohérente une précision de pointe par rapport aux méthodes existantes. Elle atténue efficacement à la fois la confusion inter-tâches (ITC) et la confusion ancien-nouveau (ONC), tout en offrant un avantage significatif dans la lutte contre l’oubli catastrophique, même en l’absence de mémoire de répétition (rehearsal memory).