Command Palette
Search for a command to run...
必要なのは良い初期化だけです。
必要なのは良い初期化だけです。
Dmytro Mishkin; Jiri Matas
概要
レイヤー逐次単位分散(Layer-Sequential Unit-Variance: LSUV)初期化 — 深層ネットワーク学習のための重み初期化の簡単な方法 — が提案されました。この方法は以下の2つのステップで構成されています。まず、各畳み込み層または内積層の重みを直交行列で事前初期化します。次に、最初の層から最終層まで順に進み、各層の出力の分散を1になるように正規化します。異なる活性化関数(maxout、ReLUファミリー、tanh)を使用した実験では、提案された初期化手法が非常に深いネットワークの学習において (i) テスト精度が標準的な手法と同等かそれ以上であり、(ii) 非常に深いネットワーク専用に提案された複雑なスキームであるFitNets (Romeroら (2015)) やHighway (Srivastavaら (2015)) と同程度以上の速さであることが示されました。性能評価はGoogLeNet、CaffeNet、FitNetsおよびResidual netsで行われ、MNIST、CIFAR-10/100およびImageNetデータセットにおいて最先端レベルかそれに近い結果が得られました。