HyperAIHyperAI

Command Palette

Search for a command to run...

Problème De Gradient Évanescent

Date

il y a 2 ans

Problème de gradient évanescentCela se produit principalement dans les réseaux neuronaux artificiels formés à l’aide de la descente de gradient et de la rétropropagation. Dans les itérations de ces méthodes de formation, la valeur mise à jour des poids du réseau neuronal est proportionnelle au gradient de la fonction d'erreur, mais la valeur du gradient disparaît presque dans certains cas, de sorte que les poids ne peuvent pas être mis à jour efficacement et le réseau neuronal ne peut pas continuer à être formé.

Dans les fonctions d'activation traditionnelles, telles que la fonction tangente hyperbolique, la valeur du gradient est comprise entre (0, 1), mais la rétropropagation calcule le gradient via la règle de la chaîne. Lorsque cette méthode calcule le gradient de la couche précédente, cela équivaut à multiplier N nombres plus petits, ce qui fait que le gradient diminue de manière exponentielle avec N, ce qui conduit à un entraînement plus lent des couches précédentes.

Build AI with AI

From idea to launch — accelerate your AI development with free AI co-coding, out-of-the-box environment and best price of GPUs.

AI Co-coding
Ready-to-use GPUs
Best Pricing

HyperAI Newsletters

Abonnez-vous à nos dernières mises à jour
Nous vous enverrons les dernières mises à jour de la semaine dans votre boîte de réception à neuf heures chaque lundi matin
Propulsé par MailChimp
Problème De Gradient Évanescent | Wiki | HyperAI