HyperAIHyperAI

Command Palette

Search for a command to run...

JS-Divergenz Jensen-Shannon-Divergenz

Datum

vor 7 Jahren

Die JS-Divergenz misst die Ähnlichkeit zweier Wahrscheinlichkeitsverteilungen. Es basiert auf einer Variante der KL-Divergenz und löst das asymmetrische Problem der KL-Divergenz. Im Allgemeinen ist die JS-Divergenz symmetrisch und ihr Wert liegt zwischen 0 und 1.

Die Definition lautet wie folgt:

Beim Messen der KL-Divergenz und der JS-Divergenz tritt ein Problem auf:

Wenn die beiden Verteilungen P und Q sehr weit voneinander entfernt sind und sich überhaupt nicht überschneiden, ist der KL-Divergenzwert bedeutungslos und der JS-Divergenzwert eine Konstante, was bedeutet, dass der Gradient dieses Punkts 0 ist.

KI mit KI entwickeln

Von der Idee bis zum Start — beschleunigen Sie Ihre KI-Entwicklung mit kostenlosem KI-Co-Coding, sofort einsatzbereiter Umgebung und den besten GPU-Preisen.

KI-Co-Coding
Sofort einsatzbereit GPUs
Beste Preise
Jetzt starten

Hyper Newsletters

Abonnieren Sie unsere neuesten Updates
Wir werden die neuesten Updates der Woche in Ihren Posteingang liefern um neun Uhr jeden Montagmorgen
Unterstützt von MailChimp
JS-Divergenz Jensen-Shannon-Divergenz | Wiki | HyperAI