2ヶ月前

SNAS: 確率的ニューラルアーキテクチャサーチ

Sirui Xie; Hehui Zheng; Chunxiao Liu; Liang Lin
SNAS: 確率的ニューラルアーキテクチャサーチ
要約

我々は確率的ニューラルアーキテクチャサーチ(Stochastic Neural Architecture Search: SNAS)を提案します。これは、ニューラルアーキテクチャサーチ(Neural Architecture Search: NAS)のための経済的なエンドツーエンドのソリューションであり、バックプロパゲーションの一回でニューラル操作パラメータとアーキテクチャ分布パラメータを同時に訓練しながら、NASパイプラインの完全性と微分可能性を維持します。本研究では、セル内の探索空間の合同分布のパラメータに対する最適化問題としてNASが再定式化されています。アーキテクチャ探索における一般的な微分可能な損失関数から勾配情報を活用するために、新しい探索勾配が提案されています。この探索勾配は、強化学習に基づくNASと同じ目的関数を最適化しますが、構造的な決定にクレジットをより効率的に割り当てます。さらに、このクレジット割り当ては局所的に分解可能な報酬によって補完され、リソース効率性の制約を強化します。CIFAR-10での実験において、SNASは非微分進化的手法や強化学習に基づくNASよりも少ないエポック数で最先端の精度を持つセルアーキテクチャを見つけることができました。また、そのアーキテクチャはImageNetにも転移可能であることが示されました。SNASの子ネットワークは探索中に検証精度を維持することができることも確認されており、これにより注意に基づくNASが競合するためにはパラメータの再学習が必要となる一方で、大規模データセットでの効率的なNASへの道筋が示唆されています。当該実装はhttps://github.com/SNAS-Series/SNAS-Series にて公開しています。

SNAS: 確率的ニューラルアーキテクチャサーチ | 最新論文 | HyperAI超神経