Einbettung von Wissensgraphen unter Berücksichtigung positions- und zentralitätsbezogener Eigenschaften
Wissensgraph-Embeddings (Knowledge Graph Embeddings, KGE) stehen in letzter Zeit im Mittelpunkt vieler Forschungsarbeiten im Bereich Künstliche Intelligenz, da sie sich hervorragend zur Lösung nachgeschalteter Aufgaben eignen, wie beispielsweise der Link-Vorhersage und der Knoten-Klassifikation. Allerdings codieren die meisten KGE-Modelle lediglich die lokale Graphstruktur einer Entität in den Vektorraum, also Informationen aus der 1-Hop-Nachbarschaft. Die Berücksichtigung nicht nur der lokalen, sondern auch globaler Merkmale von Entitäten ist entscheidend für präzise Vorhersagen auf Wissensgraphen. In dieser Arbeit wird ein neuartiges KGE-Verfahren vorgestellt, namens Graph Feature Attentive Neural Network (GFA-NN), das graphische Merkmale von Entitäten berechnet. Als Folge ergeben sich Embeddings, die auf zwei Arten globaler Netzwerkmerkmale sensitiv sind. Erstens basiert die relative Zentralität von Knoten auf der Beobachtung, dass bestimmte Entitäten „prominenter“ sind als andere. Zweitens berücksichtigt das Modell die relative Position von Entitäten innerhalb des Graphen. GFA-NN berechnet für jede Entität mehrere Zentralitätsmaße, generiert eine zufällige Menge von Referenzentitäten und berechnet für jede Entität die kürzesten Pfade zu allen Entitäten in der Referenzmenge. Anschließend lernt das Modell diese Informationen durch Optimierung von Zielfunktionen, die jeweils auf diesen Merkmalen basieren. Wir evaluieren GFA-NN an mehreren Benchmarks zur Link-Vorhersage sowohl im induktiven als auch im transduktiven Setting und zeigen, dass GFA-NN Ergebnisse erzielt, die entweder auf dem Niveau oder sogar über den besten bisherigen KGE-Methoden liegen.