HyperAIHyperAI

Command Palette

Search for a command to run...

JS-Divergenz Jensen-Shannon-Divergenz

Datum

vor 7 Jahren

Die JS-Divergenz misst die Ähnlichkeit zweier Wahrscheinlichkeitsverteilungen. Es basiert auf einer Variante der KL-Divergenz und löst das asymmetrische Problem der KL-Divergenz. Im Allgemeinen ist die JS-Divergenz symmetrisch und ihr Wert liegt zwischen 0 und 1.

Die Definition lautet wie folgt:

Beim Messen der KL-Divergenz und der JS-Divergenz tritt ein Problem auf:

Wenn die beiden Verteilungen P und Q sehr weit voneinander entfernt sind und sich überhaupt nicht überschneiden, ist der KL-Divergenzwert bedeutungslos und der JS-Divergenzwert eine Konstante, was bedeutet, dass der Gradient dieses Punkts 0 ist.

KI mit KI entwickeln

Von der Idee bis zum Launch – beschleunigen Sie Ihre KI-Entwicklung mit kostenlosem KI-Co-Coding, sofort einsatzbereiter Umgebung und bestem GPU-Preis.

KI-gestütztes kollaboratives Programmieren
Sofort einsatzbereite GPUs
Die besten Preise

HyperAI Newsletters

Abonnieren Sie unsere neuesten Updates
Wir werden die neuesten Updates der Woche in Ihren Posteingang liefern um neun Uhr jeden Montagmorgen
Unterstützt von MailChimp