1ヶ月前
SqueezeNet: AlexNet同等の精度を50分の1のパラメータ数と0.5MB未満のモデルサイズで実現
Forrest N. Iandola; Song Han; Matthew W. Moskewicz; Khalid Ashraf; William J. Dally; Kurt Keutzer

要約
最近の深層ニューラルネットワークに関する研究は、主に精度向上に焦点を当てています。特定の精度レベルにおいて、その精度を達成する複数のDNNアーキテクチャを特定することが一般的です。同等の精度を持つ場合、より小さなDNNアーキテクチャには少なくとも3つの利点があります:(1) 小さなDNNは分散学習中にサーバー間での通信量が少ない。(2) 小さなDNNは新しいモデルをクラウドから自動運転車へエクスポートする際に必要な帯域幅が少ない。(3) 小さなDNNはFPGAやメモリ容量に制限のある他のハードウェアへの展開がより容易です。これらの利点を提供するために、私たちはSqueezeNetと呼ばれる小さなDNNアーキテクチャを提案します。SqueezeNetはImageNetでAlexNet並みの精度を達成しながら、パラメータ数が50倍少ないです。さらに、モデル圧縮技術を使用することで、SqueezeNetを0.5MB未満(AlexNetの510倍小さい)に圧縮することが可能です。SqueezeNetのアーキテクチャは以下のURLからダウンロードできます:https://github.com/DeepScale/SqueezeNet