Mikroskopische Zellsegmentierung durch Convolutional LSTM-Netzwerke

Lebende Zellmikroskopie-Sequenzen weisen komplexe räumliche Strukturen und kompliziertes zeitliches Verhalten auf, was ihre Analyse zu einer herausfordernden Aufgabe macht. Bei der Zellsegmentierung, die eine bedeutende Rolle bei der Analyse spielt, können die räumlichen Eigenschaften der Daten mit Hilfe von Faltungsneuronalen Netzen (Convolutional Neural Networks, CNNs) erfasst werden. Neuere Ansätze zeigen vielversprechende Segmentierungsresultate durch die Verwendung von faltenden Enkodierer-Dekodierern wie dem U-Net. Dennoch sind diese Methoden dadurch eingeschränkt, dass sie temporale Informationen nicht einbeziehen können, die die Segmentierung von berührenden oder teilweise sichtbaren Zellen erleichtern könnten. Um die Dynamik der Zellen zu nutzen, schlagen wir eine neuartige Segmentierungsarchitektur vor, die Convolutional Long Short-Term Memory (C-LSTM) mit dem U-Net integriert. Die einzigartige Architektur des Netzwerks ermöglicht es, mehrskalige, kompakte, räumlich-zeitliche Kodierungen in den Speicherzellen der C-LSTMs zu erfassen. Die Methode wurde anhand der Cell Tracking Challenge evaluiert und erzielte Stand-des-Wissens-Ergebnisse (1. Platz im Fluo-N2DH-SIM+-Datensatz und 2. Platz im DIC-C2DL-HeLa-Datensatz). Der Code ist frei verfügbar unter: https://github.com/arbellea/LSTM-UNet.git