Command Palette
Search for a command to run...
3D U-Net: Lernen dichter volumetrischer Segmentierung aus spärlicher Annotation
3D U-Net: Lernen dichter volumetrischer Segmentierung aus spärlicher Annotation
Özgün Çiçek Ahmed Abdulkadir Soeren S. Lienkamp Thomas Brox Olaf Ronneberger
Zusammenfassung
Dieses Papier stellt ein Netzwerk zur Volumensegmentierung vor, das aus dünn beschrifteten Volumenbildern lernt. Wir skizzieren zwei attraktive Anwendungsfälle dieser Methode: (1) In einem halb-automatischen Setup beschriftet der Benutzer einige Schnittebenen im zu segmentierenden Volumen. Das Netzwerk lernt von diesen dünnen Beschriftungen und liefert eine dichte 3D-Segmentierung. (2) In einem voll-automatischen Setup gehen wir davon aus, dass ein repräsentativer, dünn beschrifteter Trainingsdatensatz existiert. Auf diesen Datensatz trainiert, segmentiert das Netzwerk neue Volumenbilder dicht. Das vorgeschlagene Netzwerk erweitert die frühere U-Net-Architektur von Ronneberger et al., indem es alle 2D-Operationen durch ihre 3D-Gegenstücke ersetzt. Die Implementierung führt während des Trainings effiziente Datenvergrößerung durch auf-the-fly elastische Deformationen durch. Es wird von Grund auf end-to-end trainiert, d.h., kein vortrainiertes Netzwerk ist erforderlich. Wir testen die Leistung der vorgeschlagenen Methode an einer komplexen, hochvariablen 3D-Struktur, dem Xenoopus-Nieren (Xenopus kidney), und erzielen gute Ergebnisse für beide Anwendungsfälle.