Réseaux de neurones convolutionnels densément connectés

Des travaux récents ont montré que les réseaux de neurones convolutifs peuvent être considérablement plus profonds, plus précis et plus efficaces à entraîner s'ils contiennent des connexions plus courtes entre les couches proches de l'entrée et celles proches de la sortie. Dans cet article, nous adoptons cette observation et introduisons le Dense Convolutional Network (DenseNet), qui connecte chaque couche à toutes les autres couches de manière feed-forward. Alors que les réseaux de neurones convolutifs traditionnels avec L couches ont L connexions - une entre chaque couche et sa couche suivante - notre réseau a L(L+1)/2 connexions directes. Pour chaque couche, les cartes de caractéristiques de toutes les couches précédentes sont utilisées comme entrées, et ses propres cartes de caractéristiques sont utilisées comme entrées pour toutes les couches suivantes. Les DenseNets présentent plusieurs avantages convaincants : ils atténuent le problème du gradient qui disparait, renforcent la propagation des caractéristiques, encouragent la réutilisation des caractéristiques et réduisent considérablement le nombre de paramètres. Nous évaluons l'architecture proposée sur quatre tâches d'évaluation très compétitives en reconnaissance d'objets (CIFAR-10, CIFAR-100, SVHN et ImageNet). Les DenseNets obtiennent des améliorations significatives par rapport à l'état de l'art sur la plupart d'entre elles, tout en nécessitant moins de calculs pour atteindre des performances élevées. Le code source et les modèles pré-entraînés sont disponibles à l'adresse https://github.com/liuzhuang13/DenseNet .