HyperAIHyperAI

Command Palette

Search for a command to run...

BN-Batch-Normalisierung

Datum

vor 6 Jahren

BN ist eine Reihe von Regularisierungsmethoden, die das Training großer Faltungsnetzwerke beschleunigen und die Klassifizierungsgenauigkeit nach der Konvergenz verbessern können.

Wenn BN in einer bestimmten Schicht eines neuronalen Netzwerks verwendet wird, führt es eine interne Standardisierung aller Mini-Batch-Daten durch und normalisiert die Ausgabe auf eine Normalverteilung von N(0,1), wodurch Änderungen in der internen Neuronenverteilung reduziert werden. Beim Training herkömmlicher tiefer neuronaler Netzwerke ändert sich die Eingabeverteilung jeder Schicht, was das Training erschwert. Durch die Hinzufügung von BN kann dieses Problem jedoch gelöst werden.

KI mit KI entwickeln

Von der Idee bis zum Start — beschleunigen Sie Ihre KI-Entwicklung mit kostenlosem KI-Co-Coding, sofort einsatzbereiter Umgebung und den besten GPU-Preisen.

KI-Co-Coding
Sofort einsatzbereit GPUs
Beste Preise
Jetzt starten

Hyper Newsletters

Abonnieren Sie unsere neuesten Updates
Wir werden die neuesten Updates der Woche in Ihren Posteingang liefern um neun Uhr jeden Montagmorgen
Unterstützt von MailChimp
BN-Batch-Normalisierung | Wiki | HyperAI