Co-Transport pour l'apprentissage incrémental de classes

Les systèmes d'apprentissage traditionnels sont entraînés dans un cadre fermé pour un nombre fixe de classes, nécessitant des jeux de données pré-collectés à l'avance. Toutefois, de nouvelles classes apparaissent fréquemment dans les applications du monde réel et doivent être apprises de manière incrémentielle. Par exemple, dans le commerce électronique, de nouveaux types de produits apparaissent quotidiennement, tandis que dans une communauté de médias sociaux, de nouveaux sujets émergent régulièrement. Dans de telles circonstances, les modèles incrémentiels doivent être capables d'apprendre plusieurs nouvelles classes simultanément sans oublier les anciennes. Nous observons une forte corrélation entre les anciennes et les nouvelles classes dans l'apprentissage incrémentiel, une relation qui peut être exploitée pour relier et faciliter mutuellement différentes étapes d'apprentissage. En conséquence, nous proposons CO-transport pour l'apprentissage incrémentiel de classes (COIL), un cadre qui apprend à établir des relations entre les tâches incrémentielles à travers des relations sémantiques par classe. Plus précisément, le co-transport présente deux aspects : le transport prospectif vise à enrichir le classificateur ancien avec des connaissances optimales transportées, permettant une adaptation rapide du modèle ; le transport rétrospectif vise à transporter les classificateurs des nouvelles classes vers l'arrière, les intégrant comme des anciennes classes afin de lutter contre l'oubli. Grâce à ces deux mécanismes, COIL s'adapte efficacement aux nouvelles tâches et résiste de manière stable à l'oubli. Des expériences menées sur des jeux de données multimédias benchmarks et réels confirment l'efficacité de la méthode proposée.