HyperAIHyperAI
vor 17 Tagen

Medical Transformer: Gated Axial-Attention für die medizinische Bildsegmentierung

Jeya Maria Jose Valanarasu, Poojan Oza, Ilker Hacihaliloglu, Vishal M. Patel
Medical Transformer: Gated Axial-Attention für die medizinische Bildsegmentierung
Abstract

In den vergangenen zehn Jahren wurden tiefe Faltungsneuronale Netze weitgehend für die Segmentierung medizinischer Bilder eingesetzt und haben dabei eine ausreichende Leistung erzielt. Aufgrund der inhärenten induktiven Vorurteile, die in faltenden Architekturen vorhanden sind, fehlt ihnen jedoch die Fähigkeit, langreichweitige Abhängigkeiten innerhalb der Bilder zu erfassen. Kürzlich vorgestellte Transformer-basierte Architekturen, die auf dem Selbst-Attention-Mechanismus beruhen, ermöglichen hingegen die Erfassung langreichweitiger Abhängigkeiten und die Lernung sehr ausdrucksstarker Repräsentationen. Dies motiviert uns, Transformer-basierte Ansätze zu untersuchen und die Machbarkeit der Anwendung solcher Netzwerkarchitekturen für Aufgaben der medizinischen Bildsegmentierung zu erforschen. Die Mehrheit der bisher für visuelle Anwendungen vorgeschlagenen Transformer-basierten Architekturen erfordert große Datensätze, um effektiv trainiert zu werden. Im Vergleich zu Datensätzen für visuelle Anwendungen sind jedoch die verfügbaren Datensätze im Bereich der medizinischen Bildgebung relativ klein, was die effiziente Trainierung von Transformers für medizinische Anwendungen erschwert. Um diesem Problem zu begegnen, schlagen wir ein Gated Axial-Attention-Modell vor, das bestehende Architekturen durch die Einführung eines zusätzlichen Steuermechanismus im Self-Attention-Modul erweitert. Zudem entwickeln wir eine Local-Global-Trainingsstrategie (LoGo), um das Modell effektiv auf medizinischen Bildern zu trainieren, wodurch die Leistung weiter verbessert wird. Konkret werden globale und lokale Merkmale jeweils auf dem gesamten Bild und auf Bildpatches erlernt. Das vorgeschlagene Medical Transformer (MedT) wird anhand von drei verschiedenen Datensätzen für die medizinische Bildsegmentierung evaluiert und zeigt eine bessere Leistung als konventionelle Faltungsnetze sowie andere verwandte Transformer-basierte Architekturen. Code: https://github.com/jeya-maria-jose/Medical-Transformer

Medical Transformer: Gated Axial-Attention für die medizinische Bildsegmentierung | Neueste Forschungsarbeiten | HyperAI