HyperAIHyperAI

Command Palette

Search for a command to run...

SA-UNet: Spatial Attention U-Net für die Segmentierung von Netzhautgefäßen

Changlu Guo Márton Szemenyei Yugen Yi Wenle Wang Buer Chen Changqi Fan

Zusammenfassung

Die präzise Segmentierung von Retinablutgefäßen ist von großer Bedeutung für die Früherkennung augenbezogener Erkrankungen wie Diabetes und Hypertonie. In dieser Arbeit stellen wir ein leichtgewichtiges Netzwerk namens Spatial Attention U-Net (SA-UNet) vor, das keine Tausende von annotierten Trainingsbeispielen erfordert und stattdessen in einer Datenverstärkungs- (data augmentation) Weise genutzt werden kann, um die verfügbaren annotierten Daten effizienter auszunutzen. SA-UNet führt ein räumliches Aufmerksamkeitsmodul ein, das die Aufmerksamkeitskarte entlang der räumlichen Dimension ermittelt und diese mit dem Eingabefeature-Map multipliziert, um die Merkmale adaptiv zu verfeinern. Zusätzlich verwendet das vorgeschlagene Netzwerk strukturierte Dropout-Konvolutionsschichten anstelle der ursprünglichen Konvolutionsschichten von U-Net, um Überanpassung des Netzwerks zu verhindern. Wir evaluieren SA-UNet anhand zweier etablierter Benchmark-Datensätze für die Retina: des Vascular Extraction (DRIVE)-Datensatzes und des Child Heart and Health Study (CHASE_DB1)-Datensatzes. Die Ergebnisse zeigen, dass das vorgeschlagene SA-UNet sowohl auf beiden Datensätzen eine state-of-the-art-Leistung erzielt. Die Implementierung und die trainierten Netzwerke sind auf Github1 verfügbar.


KI mit KI entwickeln

Von der Idee bis zum Launch – beschleunigen Sie Ihre KI-Entwicklung mit kostenlosem KI-Co-Coding, sofort einsatzbereiter Umgebung und bestem GPU-Preis.

KI-gestütztes kollaboratives Programmieren
Sofort einsatzbereite GPUs
Die besten Preise

HyperAI Newsletters

Abonnieren Sie unsere neuesten Updates
Wir werden die neuesten Updates der Woche in Ihren Posteingang liefern um neun Uhr jeden Montagmorgen
Unterstützt von MailChimp
SA-UNet: Spatial Attention U-Net für die Segmentierung von Netzhautgefäßen | Paper | HyperAI