HyperDense-Net : Un réseau de neurones convolutifs hyper-densément connecté pour la segmentation d'images multi-modales

Récemment, les connexions denses ont attiré une attention considérable dans le domaine de la vision par ordinateur car elles facilitent le flux de gradient et la supervision profonde implicite pendant l'entraînement. En particulier, DenseNet, qui connecte chaque couche à toutes les autres couches de manière feed-forward, a montré des performances impressionnantes dans les tâches de classification d'images naturelles. Nous proposons HyperDenseNet, un réseau neuronal convolutif entièrement 3D qui étend la définition des connexions denses aux problèmes de segmentation multi-modale. Chaque modalité d'imagerie a sa propre voie, et les connexions denses se produisent non seulement entre les paires de couches au sein de la même voie, mais également entre celles appartenant à des voies différentes. Cela contraste avec les approches existantes de CNN multi-modales, où la modélisation de plusieurs modalités repose entièrement sur une seule couche conjointe (ou niveau d'abstraction) pour la fusion, généralement soit à l'entrée soit à la sortie du réseau. Ainsi, le réseau proposé dispose d'une liberté totale pour apprendre des combinaisons plus complexes entre les modalités, tant au sein que entre tous les niveaux d'abstraction, ce qui augmente considérablement la représentation d'apprentissage. Nous rapportons des évaluations exhaustives sur deux défis différents et hautement compétitifs de segmentation tissulaire cérébrale multi-modale, iSEG 2017 et MRBrainS 2013, le premier se concentrant sur les données d'enfants âgés de 6 mois et le second sur les images d'adultes. HyperDenseNet a produit des améliorations significatives par rapport à de nombreux réseaux de segmentation de pointe, se classant en tête sur les deux benchmarks. Nous fournissons en outre une analyse expérimentale complète du réutilisation des caractéristiques, qui confirme l'importance des connexions hyper-denses dans l'apprentissage de représentations multi-modales. Notre code est librement accessible sur https://www.github.com/josedolz/HyperDenseNet.