Point2Mask: Ein schwach überwachter Ansatz zur Zellsegmentierung unter Verwendung von Punktanmerkungen
Die Identifizierung von Zellen in mikroskopischen Bildern stellt einen entscheidenden Schritt im Bereich der bildbasierten Zellbiologie dar. Die Zellen-Instanzsegmentierung ermöglicht es, Form, Struktur, Gestalt und Größe von Zellen detailliert zu untersuchen. Deep-Learning-Ansätze zur Zellen-Instanzsegmentierung beruhen auf Segmentierungsmasken für jede einzelne Zelle, was eine zeitaufwendige und kostspielige Aufgabe darstellt. In der Zellbiologie steht eine große Menge an unbeschrifteten mikroskopischen Daten zur Verfügung; aufgrund der aufwendigen und kostspieligen Annotationen, die für die Zellen-Instanzsegmentierung erforderlich sind, wird das volle Potenzial dieser Daten bisher jedoch nicht ausgeschöpft. In dieser Arbeit wird ein schwach überwachter Ansatz vorgestellt, der die Zellen-Instanzsegmentierung ausschließlich anhand von Punkt- und Rechteckannotationen durchführen kann. Dadurch wird der Aufwand für die Annotation erheblich reduziert. Der vorgeschlagene Ansatz wird an einem Benchmark-Datensatz, dem LIVECell-Datensatz, evaluiert. Hierbei erreicht er bei Verwendung lediglich eines Rechtecks und zufällig generierter Punkte pro Zelle eine mittlere Genauigkeit (mean average precision) von 43,53 % – ein Ergebnis, das der Leistung eines vollständig überwachten Segmentierungsverfahrens entspricht, das mit vollständigen Segmentierungsmasken trainiert wurde. Zudem ist die Annotation mit Rechtecken und Punkten 3,71-mal schneller als die vollständige Maskenannotation.