
摘要
下采样层(包括池化层和步幅卷积)是卷积神经网络架构中的关键组成部分,它们共同决定了图像特征分析的粒度/尺度以及特定层的感受野大小。为深入理解这一问题,我们基于ResNet20网络,在CIFAR10数据集上独立训练了采用不同池化配置的模型,并发现下采样层的位置对网络性能具有显著影响,而预先设定的下采样配置并非最优。网络架构搜索(NAS)可被用于将下采样配置作为超参数进行优化。然而,我们发现基于单一超网络(SuperNet)的常见一次性NAS方法在此问题上效果不佳。我们认为,其根本原因在于:为寻找最优池化配置而训练的超网络,需在所有池化配置之间完全共享参数。这种完全共享机制导致训练困难,因为某些配置的学习过程可能损害其他配置的性能。为此,我们提出一种平衡的超网络混合架构(balanced mixture of SuperNets),该方法可自动将不同的池化配置分配至不同的权重模型中,从而有效降低不同池化配置在超网络参数上的权重共享程度及其相互干扰。我们在CIFAR10、CIFAR100以及Food101数据集上对所提方法进行了评估,结果表明,在所有测试场景中,我们的模型均显著优于现有方法,并在性能上超越了默认的池化配置。