HyperAIHyperAI

Command Palette

Search for a command to run...

vor 3 Monaten

Die Lottery Ticket Hypothese: Entdeckung sparser, trainierbarer neuronaler Netze

{Michael Carbin Jonathan Frankle}

Die Lottery Ticket Hypothese: Entdeckung sparser, trainierbarer neuronaler Netze

Abstract

Neuronale Netzwerk-Pruning-Techniken können die Anzahl der Parameter trainierter Netzwerke um über 90 % reduzieren, wodurch der Speicherbedarf sinkt und die rechnerische Leistungsfähigkeit der Inferenz verbessert wird, ohne die Genauigkeit zu beeinträchtigen. Allerdings zeigt sich in der aktuellen Praxis, dass die durch Pruning erzeugten sparsen Architekturen von Grund auf schwer zu trainieren sind – was den Trainingserfolg ähnlich verbessern würde. Wir stellen fest, dass eine herkömmliche Pruning-Methode natürlicherweise Unterstrukturen aufdeckt, deren Initialisierung sie in der Lage macht, effektiv zu trainieren. Aufgrund dieser Ergebnisse formulieren wir die „Lotterielose-Hypothese“: Dichte, zufällig initialisierte, feed-forward Netzwerke enthalten Unterstrukturen („Gewinnende Lose“), die – wenn sie isoliert trainiert werden – in einer vergleichbaren Anzahl von Iterationen eine Testgenauigkeit erreichen, die der des ursprünglichen Netzwerks entspricht. Die von uns gefundenen Gewinnenden Lose haben die Initialisierungs-Lotterie gewonnen: ihre Verbindungen verfügen über Anfangsgewichte, die den Trainingsprozess besonders effektiv machen. Wir präsentieren einen Algorithmus zur Identifizierung solcher Gewinnender Lose sowie eine Reihe von Experimenten, die die Lotterielose-Hypothese und die Bedeutung dieser zufälligen Initialisierungen unterstützen. Wir finden konsistent Gewinnende Lose, die weniger als 10–20 % der Größe mehrerer vollständig verbundener und konvolutioneller feed-forward Architekturen für MNIST und CIFAR10 betragen. Bei dieser Größenordnung lernen die gefundenen Gewinnenden Lose schneller als das ursprüngliche Netzwerk und erreichen eine höhere Testgenauigkeit.

Code-Repositories

hdo0947/Lottery-Ticket-Hypothesis
pytorch
In GitHub erwähnt
SirBubbls/condense
In GitHub erwähnt
reallygooday/60daysofudacity
pytorch
In GitHub erwähnt
emerali/LottoRBM
pytorch
In GitHub erwähnt
JingtongSu/sanity-checking-pruning
pytorch
In GitHub erwähnt
Taoudi/LotteryTicketHypothesis
tf
In GitHub erwähnt
kosnil/signed_supermasks
tf
In GitHub erwähnt
ARMargolis/melanoma-pytorch
pytorch
In GitHub erwähnt
luuyin/lottery-pools
pytorch
In GitHub erwähnt
matthew-mcateer/Keras_pruning
tf
In GitHub erwähnt
gcastex/PruNet
pytorch
In GitHub erwähnt
ismail31416/colt
pytorch
In GitHub erwähnt
facebookresearch/open_lth
pytorch
In GitHub erwähnt
phiandark/SiftingFeatures
tf
In GitHub erwähnt
Mraksu/Lottery-Ticket
tf
In GitHub erwähnt

KI mit KI entwickeln

Von der Idee bis zum Start — beschleunigen Sie Ihre KI-Entwicklung mit kostenlosem KI-Co-Coding, sofort einsatzbereiter Umgebung und den besten GPU-Preisen.

KI-Co-Coding
Sofort einsatzbereit GPUs
Beste Preise
Jetzt starten

Hyper Newsletters

Abonnieren Sie unsere neuesten Updates
Wir werden die neuesten Updates der Woche in Ihren Posteingang liefern um neun Uhr jeden Montagmorgen
Unterstützt von MailChimp
Die Lottery Ticket Hypothese: Entdeckung sparser, trainierbarer neuronaler Netze | Forschungsarbeiten | HyperAI