16日前
インクリメンタル少サンプル学習における災害的忘却の克服:平坦な最小値の探索により
Guangyuan Shi, Jiaxin Chen, Wenlong Zhang, Li-Ming Zhan, Xiao-Ming Wu

要約
本稿では、少数の例しか提供されない新しいカテゴリを継続的に認識できるモデルを要求する「インクリメンタル少サンプル学習(incremental few-shot learning)」に焦点を当てる。本研究の分析によれば、既存の手法は、インクリメンタル学習において広く知られる「災害的忘却(catastrophic forgetting)」という問題に大きく苦しんでおり、少サンプル設定におけるデータの不足と不均衡がこの問題をさらに悪化させている。さらに、災害的忘却を防ぐためには、少サンプル学習の段階ではなく、基本クラスの学習という初期段階で対策を講じる必要があることが示唆された。そこで本研究では、基本クラスの学習目的関数の平坦な局所最適解(flat local minima)を探索し、その後、新たなタスクに対してその平坦領域内でモデルパラメータをファインチューニングする手法を提案する。このアプローチにより、モデルは新たなクラスを効率的に学習しつつ、既存の知識を保持することが可能となる。包括的な実験結果から、本手法はすべての先行する最先端手法を上回り、近似的な上限性能に極めて近い結果を達成していることが確認された。ソースコードは以下のURLで公開されている:https://github.com/moukamisama/F2M。