Wissensgraph-Vervollständigung durch komplexe Tensorfaktorisierung

Im Bereich des statistischen relationalen Lernens befasst sich die Vervollständigung von Wissensgraphen mit dem automatischen Verstehen der Struktur großer Wissensgraphen – beschrifteter gerichteter Graphen – und der Vorhersage fehlender Beziehungen – beschrifteter Kanten. Die neuesten Einbettungsmodelle schlagen verschiedene Kompromisse zwischen modellierender Ausdrucksstärke und zeitlicher sowie räumlicher Komplexität vor. Wir vereinen sowohl Ausdrucksstärke als auch Komplexität durch den Einsatz komplexwertiger Einbettungen und untersuchen den Zusammenhang zwischen solchen komplexwertigen Einbettungen und unitärer Diagonalisierung. Theoretisch bestätigen wir unseren Ansatz und zeigen, dass alle reellen quadratischen Matrizen – also alle möglichen Beziehungs-/Adjazenzmatrizen – der Realteil einer unitär diagonalisierbaren Matrix sind. Diese Erkenntnis öffnet die Tür für viele weitere Anwendungen der Faktorisierung quadratischer Matrizen. Unser Ansatz, der auf komplexen Einbettungen basiert, ist im Vergleich zu anderen Methoden erstaunlich einfach, da er nur das hermitesche Skalarprodukt verwendet, das Pendant zum Standard-Skalarprodukt zwischen reellen Vektoren, während andere Methoden zunehmend kompliziertere Zusammensetzungsfunktionen anwenden, um ihre Ausdrucksstärke zu erhöhen. Die vorgeschlagenen komplexen Einbettungen sind auf große Datensätze skalierbar, da sie sowohl im Raum- als auch im Zeitverhalten linear bleiben, und übertreffen gleichzeitig konsistent alternative Ansätze bei Standard-Benchmarks für Link-Vorhersage.