
クラス増分学習(Class-Incremental Learning, CIL)[40] は、厳格なメモリ予算の制約の下で分類器を学習する手法である。各増分フェーズにおいて、新規データに対する学習が行われるが、その大部分は次のフェーズで使用するためのメモリ解放のため、廃棄される。保持されるデータは、再再生(replay)に用いられるエクゼンプラ(exemplars)として機能する。しかし、従来の手法はメモリ割当に静的かつ恣意的な戦略を採用しており、多くの場合、最適ではない。本研究では、増分フェーズおよび異なるオブジェクトクラスに最適化された動的メモリ管理戦略を提案する。本手法を「強化されたメモリ管理(Reinforced Memory Management, RMM)」と呼び、強化学習を活用する。RMMの学習は、増分フェーズにおいて過去および未来のデータが厳密にアクセス不可能であるため、CILの文脈では自然に適合しない。この問題を解決するために、RMMのポリシー関数を擬似的なCILタスク(例えば、第0フェーズのデータに基づいて構築されたタスク)上で学習し、その後、実際のターゲットタスクに適用する。RMMは二段階のアクションを伝播する:レベル1は旧クラスと新クラスの間でのメモリの割当を決定し、レベル2は各具体的なクラスに対するメモリの割当を行う。本質的に、最適化可能かつ汎用的なメモリ管理手法であり、いかなる再再生に基づくCIL手法にも適用可能である。評価のため、RMMを2つの最先端のベースライン(LUCIR+AANetsおよびPOD+AANets [30])に組み込み、3つのベンチマーク(CIFAR-100、ImageNet-Subset、ImageNet-Full)上で実験を実施した。実験結果から明確な性能向上が確認された。特に、上記のベンチマークにおける25フェーズ設定において、POD+AANetsの性能をそれぞれ3.6%、4.4%、1.9%向上させた。