Orthogonale Relationstransformationen mit Graph-Kontextmodellierung für Wissensgraphen-Embedding

Translational distance-basierte Wissensgraph-Embedding-Ansätze haben im Bereich der Link-Vorhersage kontinuierlich Fortschritte gezeigt, von TransE bis hin zur neuesten state-of-the-art-Methode RotatE. Dennoch bleiben die Vorhersagen für N-1-, 1-N- und N-N-Beziehungen weiterhin herausfordernd. In dieser Arbeit stellen wir einen neuartigen translational distance-basierten Ansatz für die Link-Vorhersage in Wissensgraphen vor. Der vorgeschlagene Ansatz setzt sich aus zwei Komponenten zusammen: Erstens erweitern wir RotatE von der zweidimensionalen komplexen Domäne in einen höherdimensionalen Raum unter Verwendung orthogonaler Transformationen, um die Modellierung von Relationen mit erhöhter Kapazität zu ermöglichen. Zweitens wird der Graph-Kontext explizit über zwei gerichtete Kontextrepräsentationen modelliert. Diese Kontextrepräsentationen werden als Bestandteil der Abstands-Score-Funktion eingesetzt, um die Plausibilität von Tripeln während des Trainings und der Inferenz zu bewerten. Der vorgeschlagene Ansatz verbessert die Vorhersagegenauigkeit signifikant bei den anspruchsvollen Fällen N-1, 1-N und N-N in der Link-Vorhersage für Wissensgraphen. Die experimentellen Ergebnisse zeigen, dass die Methode auf zwei Standard-Datensätzen gegenüber der Baseline RotatE eine bessere Leistung erzielt, insbesondere auf dem Datensatz FB15k-237, der zahlreiche Knoten mit hoher Eingangsgrad-Verbindung aufweist.