HyperAIHyperAI
il y a 2 mois

Le Tiramisu à Cent Couches : Réseaux Denses Entièrement Convolutifs pour la Segmentation Sémantique

Simon Jégou; Michal Drozdzal; David Vazquez; Adriana Romero; Yoshua Bengio
Le Tiramisu à Cent Couches : Réseaux Denses Entièrement Convolutifs pour la Segmentation Sémantique
Résumé

Les approches les plus avancées pour la segmentation sémantique d'images sont basées sur les Réseaux Neuronaux Convolutifs (CNNs). L'architecture de segmentation typique est composée de (a) un chemin de réduction d'échelle responsable de l'extraction de caractéristiques sémantiques grossières, suivi par (b) un chemin d'augmentation d'échelle formé pour restaurer la résolution de l'image d'entrée à la sortie du modèle et, éventuellement, (c) un module de post-traitement (par exemple, des Champs Aléatoires Conditionnels) pour affiner les prédictions du modèle.Récemment, une nouvelle architecture de CNN, les Réseaux Neuronaux Convolutifs Densément Connectés (DenseNets), a montré des résultats excellents dans les tâches de classification d'images. L'idée derrière les DenseNets repose sur l'observation que si chaque couche est directement connectée à toutes les autres couches dans une configuration feed-forward, le réseau sera plus précis et plus facile à entraîner.Dans cet article, nous étendons les DenseNets pour traiter le problème de segmentation sémantique. Nous obtenons des résultats au niveau de l'état de l'art sur des ensembles de données de référence pour des scènes urbaines tels que CamVid et Gatech, sans aucun module de post-traitement supplémentaire ni pré-entraînement. De plus, grâce à une construction astucieuse du modèle, notre approche possède beaucoup moins de paramètres que les meilleures entrées actuellement publiées pour ces ensembles de données.Le code permettant de reproduire les expériences est disponible ici : https://github.com/SimJeg/FC-DenseNet/blob/master/train.py