HyperAIHyperAI

Command Palette

Search for a command to run...

ルックアヘッド最適化アルゴリズム:kステップ前進、1ステップ後退

Michael R. Zhang; James Lucas; Geoffrey Hinton; Jimmy Ba

概要

成功した深層ニューラルネットワークの大部分は、確率的勾配降下法(SGD)アルゴリズムの変種を使用して訓練されています。最近のSGDの改善試みは、大きく分けて2つのアプローチに分類できます:(1) AdaGradやAdamなどの適応学習率スキームと、(2) 重い球やNesterovモメンタムなどの加速スキームです。本論文では、これらの従来のアプローチとは独立した新しい最適化アルゴリズムであるLookaheadを提案します。このアルゴリズムは、別の最適化器によって生成された高速ウェイトのシーケンスを先読みすることで、探索方向を選択します。直感的には、Lookaheadは計算量とメモリコストをほとんど増加させることなく、内側の最適化器の学習安定性を向上させ、分散を低減することが示されています。実験結果から、LookaheadがImageNet、CIFAR-10/100、神経機械翻訳、およびPenn Treebankにおいて、デフォルトのハイパーパラメータ設定でもSGDとAdamの性能を大幅に向上させることが確認できました。


AIでAIを構築

アイデアからローンチまで — 無料のAIコーディング支援、すぐに使える環境、最高のGPU価格でAI開発を加速。

AI コーディング補助
すぐに使える GPU
最適な料金体系

HyperAI Newsletters

最新情報を購読する
北京時間 毎週月曜日の午前9時 に、その週の最新情報をメールでお届けします
メール配信サービスは MailChimp によって提供されています