2ヶ月前

Cutoutを用いた畳み込みニューラルネットワークの正則化の改善

Terrance DeVries; Graham W. Taylor
Cutoutを用いた畳み込みニューラルネットワークの正則化の改善
要約

畳み込みニューラルネットワークは、複雑な学習タスクを処理するために必要な強力な表現空間を学習する能力を持っています。しかし、そのような表現を捉えるために必要なモデル容量のため、過学習に脆弱であることが多く、適切な正則化が必要となります。本論文では、訓練中に入力の四角形領域をランダムにマスキングする単純な正則化手法、これをカットアウトと呼ぶ方法が、畳み込みニューラルネットワークの堅牢性と全体的な性能を向上させるのに使用できることを示します。この手法は実装が非常に簡単であり、さらに既存のデータ拡張手法や他の正則化手法と組み合わせて使用することでモデル性能のさらなる向上が可能であることを実証しています。私たちはこの手法をCIFAR-10、CIFAR-100、SVHNデータセットに対して最新のアーキテクチャに適用し、それぞれ2.56%、15.20%、1.30%のテスト誤差という新たな最先端結果を得ました。コードはhttps://github.com/uoguelph-mlrg/Cutout で利用可能です。

Cutoutを用いた畳み込みニューラルネットワークの正則化の改善 | 最新論文 | HyperAI超神経