HyperAIHyperAI

Command Palette

Search for a command to run...

EfficientNet:重新思考卷积神经网络的模型缩放

Mingxing Tan; Quoc V. Le

摘要

卷积神经网络(ConvNets)通常在固定的资源预算下开发,然后在有更多资源可用时进行扩展以提高精度。本文系统地研究了模型扩展,并发现仔细平衡网络深度、宽度和分辨率可以带来更好的性能。基于这一观察,我们提出了一种新的扩展方法,该方法使用一个简单但非常有效的复合系数来均匀地扩展深度、宽度和分辨率的所有维度。我们在扩大MobileNets和ResNet方面展示了这种方法的有效性。为了进一步提升性能,我们利用神经架构搜索设计了一个新的基线网络,并将其扩展以获得一系列模型,称为EfficientNets,这些模型在准确性和效率上均显著优于以往的ConvNets。特别是,我们的EfficientNet-B7在ImageNet数据集上达到了最先进的84.3%的Top-1精度,同时其规模比现有的最佳ConvNet小8.4倍,推理速度也快6.1倍。此外,我们的EfficientNets在网络迁移学习中表现优异,在CIFAR-100(91.7%)、Flowers(98.8%)和其他三个迁移学习数据集上均达到了最先进的精度,参数量却减少了数量级。源代码位于https://github.com/tensorflow/tpu/tree/master/models/official/efficientnet


用 AI 构建 AI

从创意到上线——通过免费 AI 协同编码、开箱即用的环境和最优惠的 GPU 价格,加速您的 AI 开发。

AI 协同编码
开箱即用的 GPU
最优定价

HyperAI Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供