HyperAIHyperAI

Command Palette

Search for a command to run...

Aggregierte Residuale Transformationen für Tief neuronalen Netze

Saining Xie; Ross Girshick; Piotr Dollár; Zhuowen Tu; Kaiming He

Zusammenfassung

Wir präsentieren eine einfache, hochmodularisierte Netzarchitektur für die Bildklassifizierung. Unser Netzwerk wird durch Wiederholung eines Bausteins konstruiert, der eine Reihe von Transformationen mit identischer Topologie aggregiert. Unsere einfache Gestaltung führt zu einer homogenen, mehrzweigigen Architektur, die nur wenige Hyperparameter benötigt. Diese Strategie enthüllt eine neue Dimension, die wir als „Kardinalität“ (die Anzahl der Transformationen) bezeichnen, als wesentlichen Faktor neben den Dimensionen Tiefe und Breite. Am ImageNet-1K Datensatz zeigen wir empirisch, dass sogar unter der eingeschränkten Bedingung der Komplexitätsbeibehaltung die Erhöhung der Kardinalität in der Lage ist, die Klassifikationsgenauigkeit zu verbessern. Darüber hinaus ist die Erhöhung der Kardinalität effektiver als das Vergrößern der Tiefe oder Breite, wenn wir die Kapazität erhöhen. Unsere Modelle, die ResNeXt genannt werden, bilden die Grundlage unseres Beitrags zum ILSVRC 2016 Klassifizierungswettbewerb, bei dem wir den zweiten Platz belegten. Wir untersuchen ResNeXt ferner am ImageNet-5K Datensatz und am COCO-Detektionssatz und zeigen ebenfalls bessere Ergebnisse als das entsprechende ResNet-Modell. Der Code und die Modelle sind öffentlich im Internet verfügbar.


KI mit KI entwickeln

Von der Idee bis zum Launch – beschleunigen Sie Ihre KI-Entwicklung mit kostenlosem KI-Co-Coding, sofort einsatzbereiter Umgebung und bestem GPU-Preis.

KI-gestütztes kollaboratives Programmieren
Sofort einsatzbereite GPUs
Die besten Preise

HyperAI Newsletters

Abonnieren Sie unsere neuesten Updates
Wir werden die neuesten Updates der Woche in Ihren Posteingang liefern um neun Uhr jeden Montagmorgen
Unterstützt von MailChimp