HyperAI

Rétropropagation Des Erreurs Accumulées

L'algorithme de rétropropagation d'erreur cumulative est une variante de l'algorithme de rétropropagation d'erreur, qui est basé sur la règle de mise à jour de minimisation de l'erreur cumulative.

Algorithme de rétropropagation d'erreur (BP)

L'algorithme de propagation d'erreur en retour utilise le réseau neuronal direct pour calculer l'erreur d'apprentissage, puis utilise l'erreur d'apprentissage pour agir en retour sur les neurones de la couche cachée, ajustant ainsi les poids de connexion et le seuil de chaque neurone, et grâce à une mise à jour continue, l'erreur d'apprentissage est minimisée.

Actuellement, la plupart des formations de réseaux neuronaux sont basées sur l'algorithme BP, qui peut être utilisé non seulement pour les réseaux neuronaux à alimentation directe multicouches, mais également pour la formation de réseaux neuronaux récursifs, etc. Cependant, « réseau BP » fait généralement référence à un réseau neuronal à alimentation directe multicouche formé avec l'algorithme BP.

Flux de travail de l'algorithme BP

  1. L'exemple d'entrée est fourni au neurone d'entrée, qui transmet le signal couche par couche jusqu'à ce que la couche de sortie produise le résultat.
  2. Calculez l'erreur de la couche de sortie, puis propagez l'erreur inverse aux neurones de la couche cachée
  3. Ajuster les poids et les seuils de connexion en fonction des erreurs des neurones de la couche cachée

Réseau neuronal à propagation avant (FP)

Le réseau neuronal feedforward peut être considéré comme une combinaison de régressions logistiques multiples, sauf que les résultats peuvent être obtenus directement via des neurones de couche cachée. Sa fonction de coût est similaire à la fonction logistique, sauf qu'elle doit additionner différentes catégories.