Few-Shot Incremental Learning with Continually Evolved Classifiers

少量サンプルによる段階的学習(Few-shot Class-Incremental Learning, FSCIL)は、古いクラスの知識を忘却せずに、少量のデータポイントから新たな概念を継続的に学習できる機械学習アルゴリズムの設計を目的としている。この課題の困難さは、新規クラスからの限られたデータが顕著な過学習を引き起こすだけでなく、長年問題視されてきた「災害的忘却(catastrophic forgetting)」を悪化させることにある。さらに、FSCILでは学習データが順次到着するため、各セッションで学習された分類器は個別セッション内での判別情報を提供するのみであり、FSCILの評価にはすべてのクラスが同時に考慮される必要がある。本研究では、このFSCIL問題に対して二つのアプローチからアプローチする。第一に、表現と分類器を分離するシンプルかつ効果的な学習戦略を採用し、各段階的学習セッションにおいては分類器のみを更新することで、表現部分の知識の忘却を回避する。このアプローチにより、事前学習済みのバックボーンと非パラメトリックなクラス平均分類器の組み合わせが、最先端の手法を上回ることを実証した。第二に、個別セッションで学習された分類器をすべてのクラスに適用可能とするために、分類器間で文脈情報を伝達するグラフモデルを用いた「継続的進化分類器(Continually Evolved Classifier, CEC)」を提案する。CECの学習を可能とするため、ベースデータセットからデータをサンプリングして擬似的な段階的学習タスクをエピソード的に構築する「擬似段階的学習パラダイム」を設計した。CIFAR100、miniImageNet、Caltech-USCD Birds-200-2011(CUB200)の3つの代表的なベンチマークデータセットにおける実験結果から、本手法がベースラインを著しく上回り、顕著な優位性を示し、新たな最先端性能を達成することが明らかになった。