17日前
ISyNet:AIアクセラレータ向けの畳み込みニューラルネットワーク設計
Alexey Letunovskiy, Vladimir Korviakov, Vladimir Polovnikov, Anastasiia Kargapoltseva, Ivan Mazurenko, Yepan Xiong

要約
近年、深層学習(Deep Learning)はコンピュータビジョン、自然言語処理、音声認識など、多くの実用的課題において顕著な成果を上げている。長年にわたり、研究の主な目標はモデルの精度向上にあり、計算複雑度が実用的に不適切なレベルに達してもその追求が続けられてきた。しかし、リアルタイム処理を要する生産環境向けのソリューションでは、モデルの遅延(latency)が極めて重要な要素となる。現在の最先端アーキテクチャは、モデルの複雑さを考慮しつつ、ニューラルアーキテクチャ探索(Neural Architecture Search: NAS)によって発見されている。しかし、特定のハードウェアに最適化された探索空間(search space)の設計は、依然として困難な課題である。この問題に対処するため、本研究では以下の4つの貢献を提案する:(1)ニューラルアーキテクチャ探索空間のハードウェア効率を評価する指標として「行列効率指標(Matrix Efficiency Measure: MEM)」を導入;(2)ハードウェア効率の高い演算を組み込んだ探索空間の設計;(3)遅延を意識したスケーリング手法;(4)専用のニューラル処理ユニット(Neural Processing Unit: NPU)上で高速かつ高精度を実現することを目的としたアーキテクチャ群であるISyNet。本研究では、ImageNetデータセットにおけるNPUデバイス上での性能評価を通じて、提案アーキテクチャの優位性を示し、下流の分類および検出タスクへの汎化能力も確認した。