少量サンプルによる段階的クラス増強学習:マルチフェーズタスクのサンプリングによる

私たちの変化し続ける世界では、常に新しいクラスが出現する。たとえばソーシャルメディアにおける新規トピックや、ECサイトにおける新種の製品などがその例である。このような状況下で、モデルは新しいクラスを認識しつつ、既存のクラス間の識別性を維持する必要がある。特に極端な状況では、モデルを段階的に更新するために利用可能な新規インスタンスが限られている。古いクラスを忘却せずに、少数のサンプルで新しいクラスを認識するというタスクは、少サンプルクラス増分学習(Few-shot Class-Incremental Learning, FSCIL)と呼ばれる。本研究では、メタ学習に基づく多段階増分タスクの学習(LearnIng Multi-phase Incremental Tasks, LIMIT)という新たなパラダイムを提案する。この手法は、ベースデータセットから架空のFSCILタスクを合成することで、実際の増分タスクと同一のデータ形式を持つ仮想タスクを構築する。これにより、メタ学習を通じて未観測のタスクに対しても汎化可能な特徴空間を構築可能となる。さらに、LIMITはTransformerに基づくキャリブレーションモジュールを導入し、既存クラスの分類器と新クラスのプロトタイプを同一スケールに調整することで、意味的ギャップを埋めるとともに、インスタンス固有の埋め込みを集合間関数(set-to-set function)により適応的に文脈化する。このアーキテクチャにより、LIMITは新しいクラスに効率的に適応しつつ、古いクラスに対する忘却を抑制する。CIFAR100、miniImageNet、CUB200の3つのベンチマークデータセットおよび大規模データセットであるImageNet ILSVRC2012における実験結果から、LIMITが最先端の性能を達成することが確認された。