HyperAIHyperAI

Command Palette

Search for a command to run...

Invertierbare Residualnetzwerke

Jens Behrmann Will Grathwohl Ricky T. Q. Chen David Duvenaud Jörn-Henrik Jacobsen

Zusammenfassung

Wir zeigen, dass Standard-ResNet-Architekturen invertierbar gemacht werden können, was es erlaubt, das gleiche Modell für Klassifikation, Dichteabschätzung und Generierung zu verwenden. Üblicherweise erfordert die Erzwingung der Invertierbarkeit die Aufteilung von Dimensionen oder Einschränkungen der Netzarchitekturen. Im Gegensatz dazu benötigt unser Ansatz lediglich die Hinzufügung eines einfachen Normalisierungsschritts während des Trainings, der bereits in Standard-Frameworks verfügbar ist. Invertierbare ResNets definieren ein generatives Modell, das durch Maximum-Likelihood-Schätzung auf unbeschrifteten Daten trainiert werden kann. Um Likelihoods zu berechnen, führen wir eine handhabbare Approximation des Jacobideterminanten-Logarithmus eines Residualblocks ein. Unsere empirische Auswertung zeigt, dass invertierbare ResNets sowohl mit den besten bildbasierten Klassifikatoren als auch mit flussbasierten generativen Modellen wettbewerbsfähig sind – etwas, das bisher mit keiner einzelnen Architektur erreicht wurde.


KI mit KI entwickeln

Von der Idee bis zum Launch – beschleunigen Sie Ihre KI-Entwicklung mit kostenlosem KI-Co-Coding, sofort einsatzbereiter Umgebung und bestem GPU-Preis.

KI-gestütztes kollaboratives Programmieren
Sofort einsatzbereite GPUs
Die besten Preise

HyperAI Newsletters

Abonnieren Sie unsere neuesten Updates
Wir werden die neuesten Updates der Woche in Ihren Posteingang liefern um neun Uhr jeden Montagmorgen
Unterstützt von MailChimp
Invertierbare Residualnetzwerke | Paper | HyperAI