
ニューラルネットワークの画像分類モデルを開発する際には、しばしば重要なアーキテクチャエンジニアリングが必要となります。本論文では、対象のデータセット上で直接モデルのアーキテクチャを学習する方法について研究を行いました。このアプローチは大規模なデータセットではコストが高くなるため、小規模なデータセットでアーキテクチャの構成要素(ビルディングブロック)を探し、それを大規模なデータセットに転送することを提案します。本研究の主要な貢献は、「NASNet探索空間」という新しい探索空間の設計であり、これにより転送可能性が実現されます。我々の実験では、CIFAR-10データセット上で最適な畳み込み層(または「セル」)を探し、その後、このセルをパラメータを個別に持つ複数のコピーを積み重ねることでImageNetデータセットに適用し、「NASNetアーキテクチャ」と名付けられた畳み込みアーキテクチャを設計しました。また、一般的化性能を大幅に向上させる新しい正則化技術であるScheduledDropPath(スケジュールドロップパス)を導入しました。CIFAR-10においてNASNetは2.4%の誤識別率を達成しており、これは最先端の結果です。ImageNetにおいても、NASNetは公開された研究の中で82.7%(top-1)および96.2%(top-5)という最先端の精度を達成しています。我々のモデルは、計算量が90億FLOPS少ないにもかかわらず、最も優れた人間によって考案されたアーキテクチャよりもtop-1精度で1.2%優れています。これは前回の最先端モデルからの計算負荷が28%削減されていることを意味します。異なる計算コストレベルでの評価でも、NASNetの精度は最先端の人間によって設計されたモデルを超える結果となっています。例えば、モバイルプラットフォーム向けに同等サイズで設計された最先端モデルよりも3.1%高い74%のtop-1精度を達成する小型版NASNetも存在します。最後に、Faster-RCNNフレームワークと組み合わせて使用されるNASNetによって学習された特徴量はCOCOデータセットにおいて43.1% mAPという結果を達成し、最先端から4.0%上回る性能を示しています。