Schnelle Generierung von Wissensgraphen-Embeddungen

Wissensgraph-Einbettungsverfahren zielen darauf ab, Entitäten und Relationen in einer Wissensbasis als Punkte oder Vektoren in einem kontinuierlichen Vektorraum darzustellen. Mehrere Ansätze, die Einbettungen verwenden, haben bei Aufgaben wie Link-Vorhersage, Entitäts-empfehlung, Fragebeantwortung und Tripletten-Klassifizierung vielversprechende Ergebnisse gezeigt. Allerdings können nur wenige Methoden niedrigdimensionale Einbettungen sehr großer Wissensbasen berechnen, ohne auf hochentwickelte Rechenressourcen zurückgreifen zu müssen. In dieser Arbeit schlagen wir KG2Vec vor, ein einfaches und schnelles Verfahren zur Einbettung von Wissensgraphen, das auf dem Skip-Gram-Modell basiert. Anstatt eine vorgegebene Bewertungsfunktion zu verwenden, lernen wir sie mit Hilfe von Long Short-Term Memory (LSTM)-Netzwerken. Wir zeigen, dass unsere Einbettungen vergleichbare Ergebnisse mit den skalierbarsten Ansätzen bei der Vervollständigung von Wissensgraphen sowie bei einem neuen Metrik erzielen. Dennoch kann KG2Vec große Graphen in kürzerer Zeit einbetten, indem es mehr als 250 Millionen Tripletten in weniger als 7 Stunden auf gängiger Hardware verarbeitet.