MicroNets:汎用マイクロコントローラ上におけるTinyMLアプリケーションの展開のためのニューラルネットワークアーキテクチャ

リソース制約のあるマイクロコントローラ(MCU)上で機械学習ワークロードをローカル実行することは、IoTの応用領域を著しく拡大する可能性を秘めている。しかし、いわゆるTinyMLは、深層ニューラルネットワークの推論に膨大な計算資源とメモリを要するため、深刻な技術的課題を抱えている。この課題に対処するため、ニューラルアーキテクチャ探索(NAS)は、MCUのメモリ、レイテンシ、エネルギー制約を満たしつつ高い精度を実現するMLモデルの設計を支援する可能性を秘めている。NASアルゴリズムの鍵となる要素の一つは、特定のニューラルネットワークアーキテクチャからMCU上での推論レイテンシ/エネルギーを予測するモデル、すなわちレイテンシ/エネルギーモデルである。本論文では、MCU向けモデル設計を目的としたNAS探索空間において、興味深い性質を観察した。すなわち、探索空間内のモデルに対して一様な事前分布を仮定した場合、モデルのレイテンシは平均的にモデルの演算(op)数に対して線形に変化するという性質である。この知見を活かし、我々は微分可能NAS(DNAS)を用いて、メモリ使用量とop数が少ないモデルを探索した。ここでop数はレイテンシの有効な代理指標として扱っている。実験結果は本手法の有効性を裏付け、TensorFlow Lite Micro(TinyMLコミュニティで広く採用されている標準的なオープンソースNN推論ランタイム)を用いてMCU上にデプロイ可能なMicroNetモデルを構築した。MicroNetは、視覚的ウェイクワード、音声キーワード検出、異常検出という、TinyMLperfの業界標準ベンチマークの3つのタスクにおいて、すべてにおいて最先端の性能を達成した。モデルおよび学習スクリプトは、github.com/ARM-software/ML-zoo で公開されている。