HyperAIHyperAI
vor 2 Monaten

MRL: Lernen zu mischen mit Aufmerksamkeit und Faltungen

Mohta, Shlok ; Suganuma, Hisahiro ; Tanaka, Yoshiki
MRL: Lernen zu mischen mit Aufmerksamkeit und Faltungen
Abstract

In dieser Arbeit stellen wir einen neuen neuronalen Architekturbaustein für den Bereich der Bildverarbeitung vor, der als Mixing Regionally and Locally (MRL) bezeichnet wird und mit dem Ziel entwickelt wurde, die bereitgestellten Eingangseigenschaften effektiv und effizient zu mischen. Wir gliedern die Aufgabe des Mischens von Eingangseigenschaften in das Mischen auf regionaler und lokaler Ebene. Um eine effiziente Mischung zu erreichen, nutzen wir das domänenweite Rezeptionsfeld, das durch Selbst-Aufmerksamkeit (Self-Attention) bereitgestellt wird, für die regionale Mischung und fügen konvolutorische Kerne hinzu, die auf der lokalen Ebene eingeschränkt sind, für die lokale Mischung. Genauer gesagt mischt unser vorgeschlagener Ansatz regionale Eigenschaften, die mit lokalen Eigenschaften innerhalb eines definierten Bereichs verbunden sind, gefolgt von einer lokalen Mischung der Eigenschaften, die durch regionale Eigenschaften erweitert wird. Experimente zeigen, dass diese Hybridisierung von Selbst-Aufmerksamkeit und Konvolution verbesserte Kapazität, Generalisierung (richtige induktive Verzerrung) und Effizienz bringt. Bei vergleichbaren Netzwerk-Einstellungen übertrifft oder gleicht MRL seine Gegenstücke in Klassifikations-, Objekterkennungs- und Segmentierungsaufgaben. Wir zeigen außerdem, dass unsere auf MRL basierende Netzarchitektur für H&E-Histologie-Datensätze Spitzenleistungen erzielt. Für die Datensätze Kumar, CoNSep und CPM-17 erreichten wir DICE-Werte von 0,843, 0,855 und 0,892 respektive. Dabei unterstreichen wir die Vielseitigkeit des MRL-Frameworks durch die Einbindung von Schichten wie Gruppenkonvolutionen zur Verbesserung der datensatzspezifischen Generalisierung.

MRL: Lernen zu mischen mit Aufmerksamkeit und Faltungen | Neueste Forschungsarbeiten | HyperAI