Normalisation Des Lots BN
BN est un ensemble de méthodes de régularisation qui peuvent accélérer la formation de grands réseaux convolutifs et améliorer la précision de la classification après convergence.
Lorsque BN est utilisé dans une certaine couche d'un réseau neuronal, il effectuera une normalisation interne sur chaque mini-lot de données, normalisant la sortie à une distribution normale de N(0,1), réduisant ainsi les changements dans la distribution interne des neurones. Lors de la formation de réseaux neuronaux profonds traditionnels, la distribution des entrées de chaque couche change, ce qui rend la formation difficile, mais l'ajout de BN peut résoudre ce problème.