Command Palette
Search for a command to run...
Segmentation d'images à grande échelle avec l'apprentissage profond basé sur une perte structurée pour la reconstruction du connectome
Segmentation d'images à grande échelle avec l'apprentissage profond basé sur une perte structurée pour la reconstruction du connectome
Jan Funke* Fabian David Tschopp* William Grisaitis Arlo Sheridan Chandan Singh Stephan Saalfeld Srinivas C. Turaga
Résumé
Nous présentons une méthode combinant la prédiction d'affinité avec l'agrégation de régions, qui améliore considérablement l'état de l'art en matière de segmentation neuronale à partir de microscopie électronique (EM) en termes de précision et d'évolutivité. Notre méthode se compose d'un réseau 3D U-NET formé pour prédire les affinités entre voxels, suivi d'une agrégation de régions itérative. Nous utilisons une perte structurée basée sur MALIS (Max-Affinity Labeling Image Segmentation), encourageant des segmentations topologiquement correctes obtenues par seuillage d'affinité. Notre extension comprend deux parties : premièrement, nous présentons une méthode quasi-linéaire pour calculer le gradient de la perte, améliorant ainsi l'algorithme quadratique original. Deuxièmement, nous calculons le gradient en deux passes distinctes afin d'éviter des contributions erronées du gradient lors des premières étapes de formation. Nos prédictions sont suffisamment précises pour que l'agrégation basée sur les percentiles, sans apprentissage, surpassent les méthodes plus complexes utilisées précédemment sur des prédictions inférieures. Nous présentons des résultats sur trois jeux de données EM variés, réalisant des améliorations relatives de 27 %, 15 % et 250 % par rapport aux résultats antérieurs. Nos observations suggèrent qu'une seule méthode peut être appliquée à la fois aux données EM à faces bloquées presque isotropiques et aux données EM à sections sériées anisotropiques. Le temps d'exécution de notre méthode évolue linéairement avec la taille du volume et atteint un débit d'environ 2,6 secondes par mégavoxel, ce qui qualifie notre méthode pour le traitement de très grands ensembles de données.