KiU-Net : Architectures de convolution surcomplète pour la segmentation d'images et de volumes biomédicaux

La plupart des méthodes de segmentation d'images médicales utilisent le réseau U-Net ou ses variantes, en raison de leur succès dans la majorité des applications. Après une analyse détaillée de ces approches « traditionnelles » basées sur l'encodeur-décodeur, nous avons observé qu'elles se révélaient inefficaces pour détecter les structures plus petites et ne parvenaient pas à segmenter précisément les régions frontières. Cette difficulté peut être attribuée à l'augmentation de la taille du champ récepteur au fur et à mesure que l'on s'enfonce dans l'encodeur. L'accent mis sur l'apprentissage des caractéristiques de haut niveau entraîne une perte d'information sur les caractéristiques de bas niveau, essentielles pour la détection des structures plus petites.Pour remédier à ce problème, nous proposons d'utiliser une architecture convolutive surcomplète où nous projetons notre image d'entrée dans une dimension supérieure afin de limiter l'augmentation du champ récepteur dans les couches profondes du réseau. Nous concevons ainsi une nouvelle architecture pour la segmentation d'images appelée KiU-Net, qui comprend deux branches : (1) un réseau convolutif surcomplet nommé Kite-Net, qui apprend à capturer les détails fins et les contours précis de l'image d'entrée, et (2) U-Net, qui apprend les caractéristiques de haut niveau. De plus, nous proposons également KiU-Net 3D, une architecture convolutive 3D pour la segmentation volumique.Nous menons une étude approfondie de KiU-Net en effectuant des expériences sur cinq jeux de données différents couvrant diverses modalités d'imagerie telles que l'échographie (US), l'imagerie par résonance magnétique (IRM), la tomographie computée (TC), l'imagerie microscopique et l'imagerie du fond d’œil. La méthode proposée offre des performances supérieures comparées à toutes les méthodes récentes, avec en outre un avantage en termes de nombre moindre de paramètres et d'une convergence plus rapide. De plus, nous montrons que les extensions de KiU-Net basées sur des blocs résiduels et des blocs denses entraînent encore des améliorations des performances.L'implémentation de KiU-Net est disponible ici : https://github.com/jeya-maria-jose/KiU-Net-pytorch