HyperAIHyperAI
vor 2 Monaten

NDDR-CNN: Schichtweise Merkmalsfusion in Multi-Task-CNNs durch neuronale diskriminative Dimensionsreduktion

Yuan Gao; Jiayi Ma; Mingbo Zhao; Wei Liu; Alan L. Yuille
NDDR-CNN: Schichtweise Merkmalsfusion in Multi-Task-CNNs durch neuronale diskriminative Dimensionsreduktion
Abstract

In dieser Arbeit schlagen wir eine neuartige Struktur eines Faltungsneuronalen Netzes (CNN) für allgemeine Mehrfachaufgabenlernen (MTL) vor, die es ermöglicht, automatisch Merkmale aus verschiedenen Aufgaben auf jeder Schicht zu fusionieren. Dies steht im Gegensatz zu den am häufigsten verwendeten MTL-CNN-Strukturen, die empirisch oder heuristisch Merkmale auf bestimmten Schichten teilen (z.B. alle Merkmale außer der letzten Faltungsschicht). Das vorgeschlagene schichtweise Merkmalsfusionsschema wird durch eine neuartige Kombination bestehender CNN-Komponenten formuliert, mit klarer mathematischer Interpretierbarkeit als diskriminatives Dimensionsreduktion, was als neuronale diskriminative Dimensionsreduktion (NDDR) bezeichnet wird. Insbesondere führen wir zunächst Merkmale mit derselben räumlichen Auflösung aus verschiedenen Aufgaben nach ihrem Kanaldimension zusammen. Anschließend zeigen wir, dass die diskriminative Dimensionsreduktion durch 1x1-Faltung, Batch-Normalisierung und Gewichtsverfall in einem CNN erreicht werden kann. Die Verwendung bestehender CNN-Komponenten gewährleistet das end-to-end-Training und die Erweiterbarkeit des vorgeschlagenen NDDR-Schichts auf verschiedene state-of-the-art-CNN-Architekturen in einer "Plug-and-Play"-Weise. Eine detaillierte Abstraktanalyse zeigt, dass die vorgeschlagene NDDR-Schicht leicht zu trainieren ist und auch robust gegenüber verschiedenen Hyperparametern ist. Experimente mit verschiedenen Aufgabensätzen und unterschiedlichen Basisnetzarchitekturen demonstrieren die vielversprechende Leistungsfähigkeit und die wünschenswerte Generalisierungsfähigkeit unserer vorgeschlagenen Methode. Der Code unseres Artikels ist unter https://github.com/ethanygao/NDDR-CNN verfügbar.请注意,"Abstraktanalyse" 应该是 "Ablationsanalyse",这是德语中常用的术语。此外,“state-of-the-art” 在德语中通常保留为英语术语。以下是修正后的版本:In dieser Arbeit schlagen wir eine neuartige Struktur eines Faltungsneuronalen Netzes (CNN) für allgemeine Mehrfachaufgabenlernen (MTL) vor, die es ermöglicht, automatisch Merkmale aus verschiedenen Aufgaben auf jeder Schicht zu fusionieren. Dies steht im Gegensatz zu den am häufigsten verwendeten MTL-CNN-Strukturen, die empirisch oder heuristisch Merkmale auf bestimmten Schichten teilen (z.B. alle Merkmale außer der letzten Faltungsschicht). Das vorgeschlagene schichtweise Merkmalsfusionsschema wird durch eine neuartige Kombination bestehender CNN-Komponenten formuliert, mit klarer mathematischer Interpretierbarkeit als diskriminatives Dimensionsreduktion, was als neuronale diskriminative Dimensionsreduktion (NDDR) bezeichnet wird. Insbesondere führen wir zunächst Merkmale mit derselben räumlichen Auflösung aus verschiedenen Aufgaben nach ihrem Kanaldimension zusammen. Anschließend zeigen wir, dass die diskriminative Dimensionsreduktion durch 1x1-Faltung, Batch-Normalisierung und Gewichtsverfall in einem CNN erreicht werden kann. Die Verwendung bestehender CNN-Komponenten gewährleistet das end-to-end-Training und die Erweiterbarkeit der vorgeschlagenen NDDR-Schicht auf verschiedene state-of-the-art-CNN-Architekturen in einer "Plug-and-Play"-Weise. Eine detaillierte Ablationsanalyse zeigt, dass die vorgeschlagene NDDR-Schicht leicht zu trainieren ist und auch robust gegenüber verschiedenen Hyperparametern ist. Experimente mit verschiedenen Aufgabensätzen und unterschiedlichen Basisnetzarchitekturen demonstrieren die vielversprechende Leistungsfähigkeit und die wünschenswerte Generalisierungsfähigkeit unserer vorgeschlagenen Methode. Der Code unseres Artikels ist unter https://github.com/ethanygao/NDDR-CNN verfügbar.

NDDR-CNN: Schichtweise Merkmalsfusion in Multi-Task-CNNs durch neuronale diskriminative Dimensionsreduktion | Forschungsarbeiten | HyperAI