HyperAIHyperAI

Command Palette

Search for a command to run...

Divergence JS Divergence Jensen-Shannon

Date

il y a 7 ans

La divergence JS mesure la similarité de deux distributions de probabilité. Il est basé sur une variante de la divergence KL et résout le problème asymétrique de la divergence KL. Généralement, la divergence JS est symétrique et sa valeur est comprise entre 0 et 1.

La définition est la suivante :

Il y a un problème lors de la mesure de la divergence KL et de la divergence JS :

Si les deux distributions P et Q sont très éloignées et ne se chevauchent pas du tout, alors la valeur de divergence KL n'a pas de sens et la valeur de divergence JS est une constante, ce qui signifie que le gradient de ce point est de 0.

Construire l'IA avec l'IA

De l'idée au lancement — accélérez votre développement IA avec du co-codage IA gratuit, un environnement prêt à l'emploi et les meilleurs prix GPU.

Co-codage IA
GPU prêts à utiliser
Meilleurs prix
Commencer

Hyper Newsletters

Abonnez-vous à nos dernières mises à jour
Nous vous enverrons les dernières mises à jour de la semaine dans votre boîte de réception à neuf heures chaque lundi matin
Propulsé par MailChimp
Divergence JS Divergence Jensen-Shannon | Wiki | HyperAI