HyperAIHyperAI

Command Palette

Search for a command to run...

Das Skalieren der Streutransformation: Tiefgehende Hybride Netze

Edouard Oyallon; Eugene Belilovsky; Sergey Zagoruyko

Zusammenfassung

Wir verwenden das Streunetzwerk als generische und feste Initialisierung der ersten Schichten eines überwachten hybriden Tiefen-Netzwerks. Wir zeigen, dass die frühen Schichten nicht unbedingt gelernt werden müssen, indem wir die besten Ergebnisse bislang mit vordefinierten Repräsentationen erzielen, während gleichzeitig mit tiefen Faltungsneuronalen Netzwerken (CNNs) konkurrieren. Durch die Verwendung einer flachen Kaskade von 1 x 1 Faltungen, die Streukoeffizienten kodiert, die sehr kleinen räumlichen Fenstern entsprechen, können wir die Genauigkeit von AlexNet auf Imagenet ILSVRC2012 erreichen. Wir demonstrieren, dass diese lokale Kodierung explizit Invarianz bezüglich Drehungen lernt. Die Kombination von Streunetzwerken mit einem modernen ResNet ermöglicht es uns, einen Einzel-Crop Top-5-Fehler von 11,4 % auf Imagenet ILSVRC2012 zu erzielen, was der Architektur des ResNet-18 vergleichbar ist, wobei wir nur 10 Schichten nutzen. Darüber hinaus stellen wir fest, dass hybride Architekturen in Regimen mit wenigen Beispielen durch ihre Fähigkeit zur Integration geometrischer A-priori-Wissen ausgezeichnete Leistungen erzielen können und ihre End-to-End-Gegenstücke übertreffen. Dies demonstrieren wir an Teilmengen des CIFAR-10-Datensatzes sowie am STL-10-Datensatz.


KI mit KI entwickeln

Von der Idee bis zum Launch – beschleunigen Sie Ihre KI-Entwicklung mit kostenlosem KI-Co-Coding, sofort einsatzbereiter Umgebung und bestem GPU-Preis.

KI-gestütztes kollaboratives Programmieren
Sofort einsatzbereite GPUs
Die besten Preise

HyperAI Newsletters

Abonnieren Sie unsere neuesten Updates
Wir werden die neuesten Updates der Woche in Ihren Posteingang liefern um neun Uhr jeden Montagmorgen
Unterstützt von MailChimp
Das Skalieren der Streutransformation: Tiefgehende Hybride Netze | Paper | HyperAI