HyperAI

BN-Batch-Normalisierung

BN ist eine Reihe von Regularisierungsmethoden, die das Training großer Faltungsnetzwerke beschleunigen und die Klassifizierungsgenauigkeit nach der Konvergenz verbessern können.

Wenn BN in einer bestimmten Schicht eines neuronalen Netzwerks verwendet wird, führt es eine interne Standardisierung aller Mini-Batch-Daten durch und normalisiert die Ausgabe auf eine Normalverteilung von N(0,1), wodurch Änderungen in der internen Neuronenverteilung reduziert werden. Beim Training herkömmlicher tiefer neuronaler Netzwerke ändert sich die Eingabeverteilung jeder Schicht, was das Training erschwert. Durch die Hinzufügung von BN kann dieses Problem jedoch gelöst werden.