
少量サンプルによる段階的増分学習(Few-shot Class-Incremental Learning: FSCIL)は、新しい学習セッションにおいて各新しいクラスに対して極めて限られた訓練サンプルしか利用できないため、困難な問題である。既存のバックボーンネットワークの微調整や、前段階で学習された分類器プロトタイプの調整は、古いクラスの特徴表現と分類器の間で不整合が生じるため、広く知られる「災害的忘却(catastrophic forgetting)」問題を引き起こす。本論文では、最近発見された「ニューラルコラプス(neural collapse)」という現象に着想を得て、FSCILにおけるこの不整合問題に取り組む。ニューラルコラプスは、同じクラスの最終層特徴が一つの頂点に収束し、すべてのクラスの頂点が分類器プロトタイプと一致して、正多面体等角タイトフレーム(Simplex Equiangular Tight Frame: ETF)を形成することを示している。この構造は、フィッシャー判別比(Fisher Discriminant Ratio)を最大化するため、分類の観点から最適な幾何学的構造である。本研究では、このニューラルコラプスの性質を活かしたFSCILフレームワークを提案する。全ラベル空間(ベースセッションおよびすべての増分セッションを含む)に対して、事前に単体ETFとして分類器プロトタイプの集合を割り当てる。訓練過程では、分類器プロトタイプは学習不能とし、特徴が対応するプロトタイプへ収束するよう新たな損失関数を導入する。理論的解析により、本手法がニューラルコラプスの最適性を保ちつつ、段階的学習においても特徴と分類器の整合性を崩さないことが示された。miniImageNet、CUB-200、CIFAR-100の各データセットにおける実験結果から、本手法が最先端の性能を上回ることを確認した。実装コードは公開予定である。