Command Palette
Search for a command to run...
深層ネットワークの高速適応のためのモデル非依存メタラーニング
深層ネットワークの高速適応のためのモデル非依存メタラーニング
Finn Chelsea Abbeel Pieter Levine Sergey
概要
我々は、勾配降下で学習された任意のモデルと互換性があり、分類、回帰、強化学習を含むさまざまな学習問題に適用可能な、モデルに依存しないメタラーニング用のアルゴリズムを提案する。メタラーニングの目的は、多数の学習タスク上でモデルを学習させ、新しい学習タスクに対して少数の訓練サンプルのみを用いても適切に処理できるようにすることである。本研究のアプローチでは、新しいタスクからの少量の訓練データと少量の勾配ステップを用いて、そのタスク上で優れた汎化性能が得られるように、モデルのパラメータを明示的に学習する。すなわち、本手法はモデルが微調整(ファインチューニング)しやすいように学習させるものである。我々は、このアプローチが2つの少サンプル画像分類ベンチマークにおいて最先端の性能を達成すること、少サンプル回帰において良好な結果をもたらすこと、およびニューラルネットワークを用いたポリシー勾配強化学習におけるファインチューニングを加速できることを実証した。