1ヶ月前

EfficientNet: 畳み込みニューラルネットワークのモデルスケーリングを再考する

Mingxing Tan; Quoc V. Le
EfficientNet: 畳み込みニューラルネットワークのモデルスケーリングを再考する
要約

畳み込みニューラルネットワーク(ConvNets)は通常、固定されたリソース予算で開発され、その後、より多くのリソースが利用可能であれば精度向上のためにスケーリングされます。本論文では、モデルのスケーリングを系統的に研究し、ネットワークの深さ、幅、解像度を慎重にバランスよく調整することで、より良い性能が得られることを確認しました。この観察に基づいて、単純ながら非常に効果的な複合係数を使用して深さ/幅/解像度のすべての次元を均一にスケーリングする新しい方法を提案します。私たちはMobileNetsとResNetのスケーリングにおいてこの方法の有効性を示しています。さらに進めて、ニューラルアーキテクチャサーチを使用して新しいベースラインネットワークを設計し、それをスケーリングしてEfficientNetsというモデル群を得ました。これらのEfficientNetsは、以前のConvNetsよりも大幅に高い精度と効率を達成しています。特に、私たちのEfficientNet-B7はImageNetで最先端の84.3%のtop-1精度を達成しており、既存の最良のConvNetと比較して推論時に8.4倍小型かつ6.1倍高速です。また、EfficientNetsは転移学習でも優れた性能を発揮し、CIFAR-100(91.7%)、Flowers(98.8%)、その他の3つの転移学習データセットにおいても最先端の精度を達成しています。パラメータ数は一つ桁少ないです。ソースコードはhttps://github.com/tensorflow/tpu/tree/master/models/official/efficientnet で公開されています。

EfficientNet: 畳み込みニューラルネットワークのモデルスケーリングを再考する | 最新論文 | HyperAI超神経