Apprentissage continu de traitements dépendants du contexte dans les réseaux neuronaux

Les réseaux de neurones profonds (DNNs) sont des outils puissants pour apprendre des règles de correspondance sophistiquées mais fixes entre les entrées et les sorties, ce qui limite leur application dans des situations plus complexes et dynamiques où ces règles ne restent pas constantes mais évoluent selon différents contextes. Pour lever ces limitations, nous avons développé une nouvelle approche impliquant un algorithme d'apprentissage appelé modification de poids orthogonaux (OWM), complété par un module de traitement dépendant du contexte (CDP). Nous avons démontré que, grâce à l'OWM pour surmonter le problème de l'oubli catastrophique et au module CDP pour apprendre comment réutiliser une représentation de caractéristiques et un classifieur dans différents contextes, un seul réseau peut acquérir de nombreuses règles de correspondance dépendantes du contexte de manière en ligne et continue, avec aussi peu que $\sim$10 échantillons pour apprendre chacune. Cela devrait permettre aux systèmes très compacts d'apprendre progressivement les multiples régularités du monde réel et finalement d'y se comporter de manière appropriée.