LHU-Net: Ein leichter hybrider U-Net für kosteneffiziente, hochleistungsfähige Segmentierung volumetrischer medizinischer Bilder

Der Aufstieg von Transformer-Architekturen hat die Segmentierung medizinischer Bilder revolutioniert und führte zu hybriden Modellen, die Faltungsneuronale Netze (CNNs) und Transformer kombinieren, um die Genauigkeit zu verbessern. Dennoch leiden diese Modelle häufig unter erhöhter Komplexität und vernachlässigen die Wechselwirkung zwischen räumlichen und kanalbasierten Merkmalen, die für die präzise Segmentierung entscheidend ist. Wir stellen LHU-Net vor, ein kompakt gestaltetes hybrides U-Net für die volumetrische Segmentierung medizinischer Bilder, das zunächst räumliche und anschließend kanalbasierte Merkmale analysiert, um eine effektive Merkmalsextraktion zu ermöglichen. Auf fünf Standard-Datensätzen (Synapse, LA, Pancreas, ACDC, BRaTS 2018) getestet, zeigte LHU-Net eine überlegene Effizienz und Genauigkeit. Insbesondere erreichte es bei ACDC einen Dice-Score von 92,66 bei nur 85 % weniger Parametern und einem Viertel der Rechenanforderungen im Vergleich zu führenden Modellen. Diese Leistung wurde ohne Vortrainierung, zusätzliche Daten oder Modell-Ensembles erzielt und setzt neue Maßstäbe für Rechen-effizienz und Genauigkeit in der Segmentierung, wobei weniger als 11 Millionen Parameter verwendet wurden. Dieser Erfolg zeigt, dass ein ausgewogener Kompromiss zwischen Rechen-effizienz und hoher Genauigkeit bei der Segmentierung medizinischer Bilder realisierbar ist. Die Implementierung von LHU-Net ist der wissenschaftlichen Gemeinschaft auf GitHub (https://github.com/xmindflow/LHUNet) kostenlos zugänglich.