11日前

フォワード互換性のあるFew-Shot Class-Incremental Learning

Da-Wei Zhou, Fu-Yun Wang, Han-Jia Ye, Liang Ma, Shiliang Pu, De-Chuan Zhan
フォワード互換性のあるFew-Shot Class-Incremental Learning
要約

私たちの動的に変化する世界では、頻繁に新たなクラスが出現する。たとえば、認証システムにおける新規ユーザーの登録などである。このような状況下で、機械学習モデルは既存のクラスを忘れないようにしながら、新しいクラスを認識できる必要がある。しかし、新クラスのサンプルが極めて少ない場合、すなわち「少数回サンプルによるクラス増分学習(Few-shot Class-Incremental Learning: FSCIL)」という状況では、その課題はさらに難しくなる。現在の手法は、モデルの更新後、新しいモデルが古いモデルと類似するように調整することで、増分学習を後向きに処理している。一方、本研究では、将来の更新に備える「前向きに学習する」アプローチを提案し、FSCIL向けの「Forward Compatible Training(FACT)」を導入する。前向き互換性(Forward Compatibility)とは、現在の段階で得られたデータに基づき、将来の新クラスを容易に現在のモデルに組み込むことができる能力を意味する。この実現のため、我々は将来の新クラス用に埋め込み空間(embedding space)を予め確保する戦略を採用する。具体的には、既知クラスの埋め込みを圧縮するための仮想プロトタイプ(virtual prototypes)を割り当て、新たなクラスのための空間を確保する。さらに、予測可能な新クラスを事前に想定し、モデルの更新プロセスに備える。これらの仮想プロトタイプは、将来の更新を柔軟に受け入れられるようにモデルを設計する役割を果たし、推論時に埋め込み空間内に散在する代理プロトタイプとして、より強固な分類器を構築する。FACTは、前向き互換性を効果的に実現しつつ、旧クラスの忘却を抑制する。広範な実験により、FACTが最先端の性能を達成することが確認された。コードは以下のURLで公開されている:https://github.com/zhoudw-zdw/CVPR22-Fact

フォワード互換性のあるFew-Shot Class-Incremental Learning | 最新論文 | HyperAI超神経