HyperAIHyperAI

Command Palette

Search for a command to run...

ニューラルネットワークにおける大規模な忘却の克服

James Kirkpatrick; Razvan Pascanu; Neil Rabinowitz; Joel Veness; Guillaume Desjardins; Andrei A. Rusu; Kieran Milan; John Quan; Tiago Ramalho; Agnieszka Grabska-Barwinska; Demis Hassabis; Claudia Clopath; Dharshan Kumaran; Raia Hadsell

概要

タスクを連続的に学習する能力は、人工知能の発展にとって極めて重要です。一般的に、ニューラルネットワークはこの能力を持っておらず、カタストロフィックフォーリング(catastrophic forgetting)が接続主義モデルの避けられない特徴であると考えられてきました。本研究では、この制限を克服し、長期間経験していないタスクでも専門的な知識を維持できるネットワークの訓練が可能であることを示します。当該手法は、重要なタスクに関連する重みに対して選択的に学習速度を低下させることで旧タスクを記憶します。MNIST手書き数字データセットに基づく一連の分類タスクと、順次的に複数のAtari 2600ゲームを学習することで、当該手法がスケーラブルかつ効果的であることを実証しています。


AIでAIを構築

アイデアからローンチまで — 無料のAIコーディング支援、すぐに使える環境、最高のGPU価格でAI開発を加速。

AI コーディング補助
すぐに使える GPU
最適な料金体系

HyperAI Newsletters

最新情報を購読する
北京時間 毎週月曜日の午前9時 に、その週の最新情報をメールでお届けします
メール配信サービスは MailChimp によって提供されています
ニューラルネットワークにおける大規模な忘却の克服 | 記事 | HyperAI超神経