
新しいタスクを学習する際に過去に学習したタスクの知識を忘れないという「増分学習(incremental learning)」の能力は、災難的忘却(catastrophic forgetting)のため、非常に困難な課題である。特に、新しいタスクに利用可能なラベル付き学習サンプルが極めて少ない場合、この課題はさらに顕著になる。現在の大多数の手法は、クラス増分学習(class-incremental learning)に特化しており、追加されるクラスを学習するための十分な訓練データを前提として、新たな重みを学習する。しかし、これらの手法は増分回帰(incremental regression)タスクに容易に拡張できず、少数サンプル(few-shot)で新しいタスクを学習する際には過剰適合(overfitting)のリスクが高くなる。本研究では、深層埋め込み空間(deep embedded space)における非パラメトリックな手法を提案し、増分少サンプル学習(incremental few-shot learning)の課題に取り組む。学習済みタスクに関する知識は、少数の量子化された参照ベクトル(quantized reference vectors)に圧縮される。提案手法は、各新しいタスクにおいて少数サンプルを用いて、モデルに新たな参照ベクトルを逐次追加することで、新しいタスクを学習する。分類問題に対しては、スパースなデータに対応するため最近傍法(nearest neighbor scheme)を採用し、クラス内変動(intra-class variation)の考慮、忘却抑制正則化(less forgetting regularization)、および参照ベクトルの補正(calibration)を組み合わせることで、災難的忘却を緩和する。さらに、提案する深層埋め込み空間における学習ベクトル量子化(Learning Vector Quantization: LVQ)は、増分少サンプル回帰タスクに対応するため、カーネルスムージング(kernel smoother)としてカスタマイズ可能である。実験結果により、提案手法が他の最先端手法を上回る性能を示した。