Rekurrentes residuelles Faltungsneuronales Netzwerk basierend auf U-Net (R2U-Net) für die medizinische Bildsegmentierung

Tiefes Lernen (DL) basierte semantische Segmentierungsverfahren haben in den letzten Jahren eine Spitzenleistung erzielt. Insbesondere wurden diese Techniken erfolgreich auf medizinische Bildklassifizierung, -segmentierung und -detektion angewendet. Eine Technik des tiefen Lernens, U-Net, ist zu einer der beliebtesten für diese Anwendungen geworden. In dieser Arbeit schlagen wir ein rekurrentes Faltungsneuronales Netzwerk (RCNN) basierend auf U-Net sowie ein rekurrentes residuelles Faltungsneuronales Netzwerk (RRCNN) basierend auf U-Net-Modellen vor, die als RU-Net und R2U-Net bezeichnet werden. Die vorgeschlagenen Modelle nutzen die Stärken von U-Net, Residuen-netzwerken (Residual Network) und RCNN. Diese vorgeschlagenen Architekturen bieten mehrere Vorteile für Segmentierungsaufgaben. Erstens hilft eine residuale Einheit beim Training tiefer Architekturen. Zweitens stellt die Merkmalsakkumulation durch rekurrente residuale Faltungsschichten eine bessere Merkmalsrepräsentation für Segmentierungsaufgaben sicher. Drittens ermöglicht sie es uns, eine verbesserte U-Net-Architektur mit derselben Anzahl an Netzparameter zu entwerfen, die eine bessere Leistung bei der Segmentierung medizinischer Bilder bietet. Die vorgeschlagenen Modelle wurden an drei Benchmark-Datensätzen getestet, darunter die Segmentierung von Blutgefäßen in Retina-Bildern, Hautkrebs-Segmentierung und Lungenläsions-Segmentierung. Die experimentellen Ergebnisse zeigen eine überlegene Leistung bei Segmentierungsaufgaben im Vergleich zu vergleichbaren Modellen einschließlich U-Net und residuales U-Net (ResU-Net).