Réseaux de Compensation pour la Segmentation Sémantique Continue

Dans cette étude, nous examinons le problème de segmentation sémantique continue, où les réseaux neuronaux profonds doivent intégrer de nouvelles classes de manière continue sans oubli catastrophique. Nous proposons d'utiliser un mécanisme de ré-paramétrisation structurelle, appelé module de compensation des représentations (RC), pour découpler l'apprentissage des représentations des connaissances anciennes et nouvelles. Le module RC comprend deux branches dynamiquement évoluées, dont une est figée et l'autre entraînable. De plus, nous avons conçu une stratégie de distillation de connaissances par cube regroupé sur les dimensions spatiales et canalaires afin d'améliorer davantage la plasticité et la stabilité du modèle. Nous menons des expériences dans deux scénarios complexes de segmentation sémantique continue : la segmentation continue par classe et la segmentation continue par domaine. Sans aucun coût computationnel supplémentaire ni paramètres supplémentaires lors de l'inférence, notre méthode surpasse les performances de l'état de l'art. Le code est disponible à l'adresse \url{https://github.com/zhangchbin/RCIL}.