HyperAIHyperAI

Command Palette

Search for a command to run...

Einheitliche Interpretation von Softmax-Cross-Entropy und Negative Sampling: Mit Fallstudie zur Wissensgraphen-Embedding

Hidetaka Kamigaito Katsuhiko Hayashi

Zusammenfassung

Bei der Einbettung von Wissensgraphen wurde bisher die theoretische Beziehung zwischen der Softmax-Cross-Entropy- und der Negative-Sampling-Verlustfunktion nicht untersucht. Dies erschwert einen fairen Vergleich der Ergebnisse beider unterschiedlicher Verlustfunktionen. Um dieses Problem zu lösen, haben wir versucht, die Bregman-Divergenz einzusetzen, um eine einheitliche Interpretation beider Verlustfunktionen zu bieten. Unter dieser Interpretation lassen sich theoretische Aussagen für einen fairen Vergleich ableiten. Experimentelle Ergebnisse auf den Datensätzen FB15k-237 und WN18RR zeigen, dass die theoretischen Aussagen auch in praktischen Anwendungen gültig sind.


KI mit KI entwickeln

Von der Idee bis zum Launch – beschleunigen Sie Ihre KI-Entwicklung mit kostenlosem KI-Co-Coding, sofort einsatzbereiter Umgebung und bestem GPU-Preis.

KI-gestütztes kollaboratives Programmieren
Sofort einsatzbereite GPUs
Die besten Preise

HyperAI Newsletters

Abonnieren Sie unsere neuesten Updates
Wir werden die neuesten Updates der Woche in Ihren Posteingang liefern um neun Uhr jeden Montagmorgen
Unterstützt von MailChimp
Einheitliche Interpretation von Softmax-Cross-Entropy und Negative Sampling: Mit Fallstudie zur Wissensgraphen-Embedding | Paper | HyperAI