Hi-gMISnet: Generalisierte medizinische Bildsegmentierung mittels DWT-basierter mehrschichtiger Fusion und dualer Aufmerksamkeit in hochauflösendem pGAN
Zielsetzung. Die automatische Segmentierung medizinischer Bilder ist entscheidend für die präzise Isolierung von Zielgeweben im Bild von Hintergrundgeweben, was eine genaue Diagnose und interventionelle Prozeduren erleichtert. Obwohl die Verbreitung öffentlich verfügbarer klinischer Datensätze zur Entwicklung von auf Deep Learning basierenden Methoden für die Segmentierung medizinischer Bilder geführt hat, bleibt ein generalisierbarer, genauer, robuster und zuverlässiger Ansatz über verschiedene Bildgebungsmodalitäten hinweg weiterhin eine Herausforderung. Vorgehensweise. In dieser Arbeit wird ein neuartiger, hochauflösender paralleler generativer adversarischer Netzwerk-(pGAN)-basiertes Verfahren zur automatischen Segmentierung medizinischer Bilder aus unterschiedlichen Bildgebungsmodalitäten vorgestellt. Durch die Integration neuartiger Komponenten – wie partieller hybrider Transferlernen, multilayer- und multiresoluter Merkmalsfusion mittels diskreter Wavelet-Transformation (DWT) im Encoder sowie eines Dual-Modus-Attention-Gates im Decoder eines mehrskaligen U-Net-basierten GAN – erreicht der vorgeschlagene Ansatz eine verbesserte Leistung und Generalisierbarkeit. Durch die Verwendung von mehrzielbasierten adversarialen Verlustfunktionen, einschließlich einer einzigartigen reziproken Verlustfunktion zur Förderung kooperativen Lernens in pGANs, wird zudem die Robustheit und Genauigkeit der Segmentierungskarte weiter gesteigert. Hauptergebnisse. Experimentelle Evaluierungen an neun unterschiedlichen, öffentlich verfügbaren Datensätzen zur medizinischen Bildsegmentierung – darunter PhysioNet ICH, BUSI, CVC-ClinicDB, MoNuSeg, GLAS, ISIC-2018, DRIVE, Montgomery und PROMISE12 – belegen die herausragende Leistung des vorgeschlagenen Ansatzes. Die vorgeschlagene Methode erzielt durchschnittliche F1-Scores von 79,53 %, 88,68 %, 82,50 %, 93,25 %, 90,40 %, 94,19 %, 81,65 %, 98,48 % und 90,79 % auf den jeweiligen Datensätzen und übertrifft damit bestehende State-of-the-Art-Methoden. Darüber hinaus zeigt der Ansatz eine robuste Fähigkeit zur Segmentierung in mehreren Domänen mit konsistenter und zuverlässiger Leistung. Die Bewertung der Fähigkeit des Modells, feine Details präzise zu erkennen, zeigt, dass das hochauflösende generalisierte Netzwerk zur medizinischen Bildsegmentierung (Hi-gMISnet) auch bei sehr kleinen Zielbereichen präziser segmentiert. Bedeutung. Der vorgeschlagene Ansatz bietet eine robuste und zuverlässige Segmentierung von medizinischen Bildern und hat daher das Potenzial, in klinischen Umgebungen zur Diagnose von Patienten eingesetzt zu werden.