1ヶ月前
ニューラルネットワークにおける大規模な忘却の克服
James Kirkpatrick; Razvan Pascanu; Neil Rabinowitz; Joel Veness; Guillaume Desjardins; Andrei A. Rusu; Kieran Milan; John Quan; Tiago Ramalho; Agnieszka Grabska-Barwinska; Demis Hassabis; Claudia Clopath; Dharshan Kumaran; Raia Hadsell

要約
タスクを連続的に学習する能力は、人工知能の発展にとって極めて重要です。一般的に、ニューラルネットワークはこの能力を持っておらず、カタストロフィックフォーリング(catastrophic forgetting)が接続主義モデルの避けられない特徴であると考えられてきました。本研究では、この制限を克服し、長期間経験していないタスクでも専門的な知識を維持できるネットワークの訓練が可能であることを示します。当該手法は、重要なタスクに関連する重みに対して選択的に学習速度を低下させることで旧タスクを記憶します。MNIST手書き数字データセットに基づく一連の分類タスクと、順次的に複数のAtari 2600ゲームを学習することで、当該手法がスケーラブルかつ効果的であることを実証しています。