HyperAIHyperAI
vor 2 Monaten

Aggregierte Residuale Transformationen für Tief neuronalen Netze

Saining Xie; Ross Girshick; Piotr Dollár; Zhuowen Tu; Kaiming He
Aggregierte Residuale Transformationen für Tief neuronalen Netze
Abstract

Wir präsentieren eine einfache, hochmodularisierte Netzarchitektur für die Bildklassifizierung. Unser Netzwerk wird durch Wiederholung eines Bausteins konstruiert, der eine Reihe von Transformationen mit identischer Topologie aggregiert. Unsere einfache Gestaltung führt zu einer homogenen, mehrzweigigen Architektur, die nur wenige Hyperparameter benötigt. Diese Strategie enthüllt eine neue Dimension, die wir als „Kardinalität“ (die Anzahl der Transformationen) bezeichnen, als wesentlichen Faktor neben den Dimensionen Tiefe und Breite. Am ImageNet-1K Datensatz zeigen wir empirisch, dass sogar unter der eingeschränkten Bedingung der Komplexitätsbeibehaltung die Erhöhung der Kardinalität in der Lage ist, die Klassifikationsgenauigkeit zu verbessern. Darüber hinaus ist die Erhöhung der Kardinalität effektiver als das Vergrößern der Tiefe oder Breite, wenn wir die Kapazität erhöhen. Unsere Modelle, die ResNeXt genannt werden, bilden die Grundlage unseres Beitrags zum ILSVRC 2016 Klassifizierungswettbewerb, bei dem wir den zweiten Platz belegten. Wir untersuchen ResNeXt ferner am ImageNet-5K Datensatz und am COCO-Detektionssatz und zeigen ebenfalls bessere Ergebnisse als das entsprechende ResNet-Modell. Der Code und die Modelle sind öffentlich im Internet verfügbar.

Aggregierte Residuale Transformationen für Tief neuronalen Netze | Neueste Forschungsarbeiten | HyperAI