Attention U-Net: Lernen, wo der Bauchspeicheldrüse zu suchen ist

Wir schlagen ein neues Aufmerksamkeitsgattermodell (Attention Gate, AG) für medizinische Bildgebung vor, das automatisch lernt, sich auf Zielestrukturen unterschiedlicher Formen und Größen zu fokussieren. Modelle, die mit AGs trainiert werden, lernen implizit, irrelevante Bereiche in einem Eingangsbild zu unterdrücken und gleichzeitig wichtige Merkmale für eine bestimmte Aufgabe hervorzuheben. Dies ermöglicht es uns, die Notwendigkeit expliziter externer Gewebe-/Organlokalisationsmodule in kaskadierten Faltungsneuralnetzen (Convolutional Neural Networks, CNNs) zu beseitigen. AGs können leicht in Standard-CNN-Architekturen wie das U-Net-Modell integriert werden, wobei der zusätzliche Rechenaufwand minimal ist und gleichzeitig die Modellsensitivität und Vorhersagegenauigkeit erhöht wird. Die vorgeschlagene Attention U-Net-Architektur wurde anhand zweier großer CT-Bauchdatasets für die Mehrklassensegmentierung von Bildern evaluiert. Experimentelle Ergebnisse zeigen, dass AGs die Vorhersageleistung des U-Nets bei verschiedenen Datensätzen und Trainingsgrößen konsequent verbessern, während sie die rechnerische Effizienz beibehalten. Der Code für die vorgeschlagene Architektur ist öffentlich verfügbar.