1 个月前

SqueezeNet:参数量减少50倍且模型大小小于0.5MB的AlexNet级精度

Forrest N. Iandola; Song Han; Matthew W. Moskewicz; Khalid Ashraf; William J. Dally; Kurt Keutzer
SqueezeNet:参数量减少50倍且模型大小小于0.5MB的AlexNet级精度
摘要

近期关于深度神经网络的研究主要集中在提高准确性上。对于给定的准确率水平,通常可以找到多种能够达到该准确率的DNN架构。在相同准确率的情况下,较小的DNN架构至少具有三个优势:(1)较小的DNN在分布式训练过程中需要较少的服务器间通信。(2)较小的DNN在从云端向自动驾驶汽车传输新模型时需要较少的带宽。(3)较小的DNN更容易部署在FPGA和其他内存有限的硬件上。为了提供这些优势,我们提出了一种称为SqueezeNet的小型DNN架构。SqueezeNet在ImageNet数据集上的准确率达到了AlexNet水平,但参数数量减少了50倍。此外,通过使用模型压缩技术,我们能够将SqueezeNet压缩到小于0.5MB(比AlexNet小510倍)。SqueezeNet架构可在此处下载:https://github.com/DeepScale/SqueezeNet

SqueezeNet:参数量减少50倍且模型大小小于0.5MB的AlexNet级精度 | 最新论文 | HyperAI超神经