
要約
深層ニューラルネットワークは、通常、一般消費者向けのハードウェアや低消費電力デバイス上でリアルタイムに実行するには計算コストが高すぎる。本論文では、ネットワークのプルーニング(構造削減)と量子化を用いて、ニューラルネットワークの計算およびメモリ要件を低減する手法を検討する。特に、AlexNetのような大型ネットワークと、近年のコンパクトなアーキテクチャであるShuffleNetおよびMobileNetとの比較を通じて、これらの手法の有効性を評価した。その結果、プルーニングと量子化により、これらのネットワークを元のサイズの半分以下に圧縮でき、特にMobileNetでは7倍の高速化を達成した。また、パラメータ数の削減に加えて、プルーニングが過学習(overfitting)の是正にも寄与することを実証した。