1 个月前

EfficientNet:重新思考卷积神经网络的模型缩放

Mingxing Tan; Quoc V. Le
EfficientNet:重新思考卷积神经网络的模型缩放
摘要

卷积神经网络(ConvNets)通常在固定的资源预算下开发,然后在有更多资源可用时进行扩展以提高精度。本文系统地研究了模型扩展,并发现仔细平衡网络深度、宽度和分辨率可以带来更好的性能。基于这一观察,我们提出了一种新的扩展方法,该方法使用一个简单但非常有效的复合系数来均匀地扩展深度、宽度和分辨率的所有维度。我们在扩大MobileNets和ResNet方面展示了这种方法的有效性。为了进一步提升性能,我们利用神经架构搜索设计了一个新的基线网络,并将其扩展以获得一系列模型,称为EfficientNets,这些模型在准确性和效率上均显著优于以往的ConvNets。特别是,我们的EfficientNet-B7在ImageNet数据集上达到了最先进的84.3%的Top-1精度,同时其规模比现有的最佳ConvNet小8.4倍,推理速度也快6.1倍。此外,我们的EfficientNets在网络迁移学习中表现优异,在CIFAR-100(91.7%)、Flowers(98.8%)和其他三个迁移学习数据集上均达到了最先进的精度,参数量却减少了数量级。源代码位于https://github.com/tensorflow/tpu/tree/master/models/official/efficientnet。

EfficientNet:重新思考卷积神经网络的模型缩放 | 最新论文 | HyperAI超神经