
要約
深層ニューラルネットワークは、新しいタスクを学習する際に既存のタスクを大規模に忘れるという主要な制限に直面しています。本論文では、セマンティックセグメンテーションにおけるクラス増分継続学習に焦点を当てます。この設定では、新しいカテゴリが時間とともに利用可能になりますが、以前の訓練データは保持されません。提案する継続学習スキームは、潜在空間の形状を変えることで忘却を軽減し、新しいクラスの認識性能を向上させることを目指しています。当フレームワークは3つの新規コンポーネントによって駆動されており、これらのコンポーネントは既存の技術と容易に組み合わせることができます。まず、プロトタイプマッチングは古いクラスに対する潜在空間の一貫性を確保し、エンコーダーがその後のステップで以前に観測されたクラスに対して類似した潜在表現を生成することを制約します。次に、特徴スパース化により潜在空間に余裕が生まれ、新しいクラスを受け入れるためのスペースが確保されます。最後に、コントラスト的学習は特徴量をその意味に基づいてクラスタリングし、異なるクラス間の特徴量を引き離す役割を果たします。Pascal VOC2012およびADE20Kデータセットでの広範な評価により、当アプローチの有効性が示されており、現行の最先端手法よりも大幅に優れた性能を発揮することが確認されています。