Hi-gMISnet : segmentation d’images médicales généralisée par fusion multicouche basée sur la DWT et une attention à deux modes dans un pGAN à haute résolution
Objectif. La segmentation automatique des images médicales est essentielle pour isoler avec précision les régions cibles dans une image, en les distinguant du tissu environnant, ce qui facilite les diagnostics précis et les interventions thérapeutiques. Bien que la multiplication des jeux de données cliniques publiques ait permis le développement de méthodes de segmentation d’images médicales basées sur l’apprentissage profond, une approche généralisable, précise, robuste et fiable s’appliquant à diverses modalités d’imagerie reste encore inédite.Approche. Ce travail propose une nouvelle méthode généralisée d’apprentissage profond fondée sur un réseau génératif adversarial parallèle à haute résolution (pGAN) pour la segmentation automatique des images médicales issues de modalités d’imagerie diverses. La méthode proposée présente des performances et une capacité de généralisation supérieures grâce à l’intégration de composants innovants, notamment un transfert d’apprentissage hybride partiel, une fusion de caractéristiques multicouche et multirésolution basée sur la transformation en ondelettes discrètes (DWT) dans l’encodeur, ainsi qu’une porte d’attention en mode dual dans le décodeur du GAN basé sur un U-Net à multi-résolution. Grâce à une fonction de perte d’entraînement adversarial multi-objectifs incluant une perte réciproque originale destinée à favoriser l’apprentissage coopératif au sein des pGAN, la robustesse et la précision de la carte de segmentation sont considérablement améliorées.Résultats principaux. Les évaluations expérimentales menées sur neuf jeux de données publics variés pour la segmentation d’images médicales — incluant PhysioNet ICH, BUSI, CVC-ClinicDB, MoNuSeg, GLAS, ISIC-2018, DRIVE, Montgomery et PROMISE12 — démontrent l’efficacité supérieure de la méthode proposée. Elle atteint des scores moyens F1 de 79,53 %, 88,68 %, 82,50 %, 93,25 %, 90,40 %, 94,19 %, 81,65 %, 98,48 % et 90,79 % respectivement sur ces jeux de données, surpassant ainsi les méthodes d’état de l’art. De plus, la méthode proposée démontre une capacité robuste à la segmentation multi-domaine, avec des performances constantes et fiables. L’évaluation de la capacité du modèle à identifier précisément de petits détails indique que le réseau de segmentation généralisé à haute résolution pour images médicales (Hi-gMISnet) est particulièrement précis, même en présence de zones cibles très petites.Signification. La méthode proposée offre des performances de segmentation robustes et fiables sur les images médicales, ce qui en fait un candidat prometteur pour une application clinique dans le diagnostic des patients.