ベイジアンスパースネットワークのフルエクスペリエンスリプレイを用いた継続的学習

継続的学習(Continual Learning: CL)手法は、機械学習モデルが新しいタスクを学習する際に、以前にマスターしたタスクの知識を忘れるという災害的な忘れ(catastrophic forgetting)を防ぐことを目指しています。既存のCLアプローチでは、過去に見たサンプルのバッファを保持したり、知識蒸留を行ったり、正則化技術を使用したりしてこの目標に取り組んでいますが、それでも異なるタスク間での干渉により災害的な忘れが発生することがあります。この問題を改善するために、我々は任意の段階で現在および過去のタスクの学習にSparseなニューロンのみを活性化し選択することを提案します。これにより、より多くのパラメータ空間とモデル容量を将来のタスクのために予約することができます。これにより、異なるタスク間でのパラメータ干渉が最小限に抑えられます。これを実現するために、我々は全層のニューロン活性化に対して変分ベイジアンスパーシティ事前分布(variational Bayesian sparsity priors)を用いるSparseニューラルネットワーク(Sparse Neural Network for Continual Learning: SNCL)を提案します。完全経験再生(Full Experience Replay: FER)は、異なる層におけるニューロンのSparseな活性化の学習において効果的な教師あり学習を提供します。また、メモリバッファを維持するために損失認識型リザーバーサンプリング戦略を開発しました。提案手法はネットワーク構造やタスク境界に依存せず、さまざまなデータセットでの実験結果から、我々のアプローチが災害的な忘れ軽減において最先端の性能を達成していることが示されています。