
摘要
近期的研究表明,如果卷积网络包含从接近输入层到接近输出层的较短连接,则可以显著提高网络的深度、准确性和训练效率。本文基于这一观察,引入了密集卷积网络(DenseNet),该网络以前馈方式将每一层与所有其他层相连。传统的L层卷积网络有L个连接——每层与其后续层之间有一个连接——而我们的网络则有L(L+1)/2个直接连接。对于每一层,所有先前层的特征图均作为其输入,而其自身的特征图则作为所有后续层的输入。DenseNets具有多个显著优势:它们缓解了梯度消失问题,增强了特征传播,促进了特征重用,并大幅减少了参数数量。我们对所提出的架构在四个极具竞争力的目标识别基准任务(CIFAR-10、CIFAR-100、SVHN和ImageNet)上进行了评估。DenseNets在大多数任务中取得了显著改进,并且在实现高性能的同时所需的计算量较少。代码和预训练模型可在https://github.com/liuzhuang13/DenseNet 获取。