HyperAIHyperAI

Command Palette

Search for a command to run...

Dichte Transformer-Netzwerke für die Segmentierung von Gehirn-Elektronenmikroskopie-Bildern

Jun Li Yongjun Chen Lei Cai Shuiwang Ji Ian Davidson

Zusammenfassung

Der zentrale Ansatz aktueller tiefen Lernmethoden für dichte Vorhersagen besteht darin, ein Modell auf einem regelmäßigen Patch, der um jeden Pixel zentriert ist, anzuwenden, um pixelweise Vorhersagen zu erzeugen. Diese Ansätze sind jedoch eingeschränkt, da die Form und Größe der Patches durch die Netzwerkarchitektur festgelegt sind und nicht aus den Daten gelernt werden. In dieser Arbeit stellen wir dichte Transformer-Netzwerke vor, die die Formen und Größen der Patches aus den Daten lernen können. Die dichten Transformer-Netzwerke nutzen eine Encoder-Decoder-Architektur, wobei jeweils ein Paar dichter Transformer-Module in die Encoder- und Decoder-Pfade integriert wird. Der Innovationsgehalt dieser Arbeit liegt darin, technische Lösungen bereitzustellen, um die Formen und Größen der Patches aus den Daten zu lernen und gleichzeitig die räumliche Korrespondenz effizient wiederherzustellen, die für dichte Vorhersagen erforderlich ist. Die vorgeschlagenen dichten Transformer-Module sind differenzierbar, sodass das gesamte Netzwerk trainierbar ist. Wir evaluieren die vorgeschlagenen Netzwerke an Aufgaben der biologischen Bildsegmentierung und zeigen, dass sie gegenüber Baseline-Methoden eine überlegene Leistung erzielen.


KI mit KI entwickeln

Von der Idee bis zum Launch – beschleunigen Sie Ihre KI-Entwicklung mit kostenlosem KI-Co-Coding, sofort einsatzbereiter Umgebung und bestem GPU-Preis.

KI-gestütztes kollaboratives Programmieren
Sofort einsatzbereite GPUs
Die besten Preise

HyperAI Newsletters

Abonnieren Sie unsere neuesten Updates
Wir werden die neuesten Updates der Woche in Ihren Posteingang liefern um neun Uhr jeden Montagmorgen
Unterstützt von MailChimp
Dichte Transformer-Netzwerke für die Segmentierung von Gehirn-Elektronenmikroskopie-Bildern | Paper | HyperAI