HyperAIHyperAI

Command Palette

Search for a command to run...

SqueezeNet:参数量减少50倍且模型大小小于0.5MB的AlexNet级精度

Forrest N. Iandola Song Han Matthew W. Moskewicz Khalid Ashraf William J. Dally Kurt Keutzer

摘要

近期关于深度神经网络的研究主要集中在提高准确性上。对于给定的准确率水平,通常可以找到多种能够达到该准确率的DNN架构。在相同准确率的情况下,较小的DNN架构至少具有三个优势:(1)较小的DNN在分布式训练过程中需要较少的服务器间通信。(2)较小的DNN在从云端向自动驾驶汽车传输新模型时需要较少的带宽。(3)较小的DNN更容易部署在FPGA和其他内存有限的硬件上。为了提供这些优势,我们提出了一种称为SqueezeNet的小型DNN架构。SqueezeNet在ImageNet数据集上的准确率达到了AlexNet水平,但参数数量减少了50倍。此外,通过使用模型压缩技术,我们能够将SqueezeNet压缩到小于0.5MB(比AlexNet小510倍)。SqueezeNet架构可在此处下载:https://github.com/DeepScale/SqueezeNet


用 AI 构建 AI

从创意到上线——通过免费 AI 协同编码、开箱即用的环境和最优惠的 GPU 价格,加速您的 AI 开发。

AI 协同编码
开箱即用的 GPU
最优定价

HyperAI Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供