
要約
我々は、ImageNetの2010年トレーニングセットに含まれる130万枚の高解像度画像を1,000の異なるクラスに分類するため、大規模かつ深層の畳み込みニューラルネットワークを訓練した。テストデータにおいて、トップ1誤り率は39.7%、トップ5誤り率は18.9%を達成し、従来の最先端技術と比べて顕著な改善を示した。このニューラルネットワークは、6000万のパラメータと50万のニューロンを有しており、5つの畳み込み層(その一部は最大プーリング層に続く)、2つのグローバルに接続された層、および最終的に1,000クラスへのソフトマックス出力を持つ構成である。訓練の高速化を図るため、飽和しない活性化関数(non-saturating neurons)を用い、畳み込みネットワークの非常に効率的なGPU実装を採用した。グローバルに接続された層における過学習の抑制のため、非常に有効であることが実証された新しい正則化手法を導入した。