MDE: Mehrfache Distanz-Einbettungen für die Verknüpfungsvorhersage in Wissensgraphen

In den letzten zehn Jahren gewannen Wissensgraphen an Popularität zur Erfassung strukturierten Domänenwissens. Relationale Lernmodelle ermöglichen die Vorhersage fehlender Verbindungen innerhalb von Wissensgraphen. Genauer gesagt modellieren latente Distanzansätze die Beziehungen zwischen Entitäten durch eine Distanz zwischen ihren latenten Darstellungen. Übersetzende Einbettungsmodelle (z.B. TransE) gehören zu den beliebtesten latenten Distanzansätzen, die eine einzige Distanzfunktion verwenden, um mehrere Relationsmuster zu lernen. Allerdings sind sie in der Regel ineffektiv bei der Erfassung symmetrischer Beziehungen, da der Vektornorm der Darstellung für alle symmetrischen Beziehungen null wird. Sie verlieren auch Informationen beim Lernen von Beziehungen mit reflexiven Mustern, da diese dann symmetrisch und transitiv werden. Wir schlagen das Multiple Distance Embedding-Modell (MDE) vor, das diese Einschränkungen behebt und einen Rahmen zur kollaborativen Kombination verschiedener latenter Distanzbasierte Terme bereitstellt. Unsere Lösung basiert auf zwei Prinzipien: 1) Wir verwenden einen grenzbasierten Verlust anstelle eines Rangverlusts mit Marginalabstand und 2) Durch das Lernen unabhängiger Einbettungsvektoren für jeden Term können wir widersprüchliche Distancterme kollektiv trainieren und vorhersagen. Wir zeigen ferner, dass MDE Beziehungen mit (Anti-)Symmetrie, Inversion und Kompositionsmustern modellieren kann. Wir schlagen MDE als neuronales Netzwerkmodell vor, das es uns erlaubt, nichtlineare Beziehungen zwischen den Einbettungsvektoren und dem erwarteten Ausgang des Bewertungsfunktion zu kartieren. Unsere empirischen Ergebnisse zeigen, dass MDE wettbewerbsfähig mit den neuesten Einbettungsmodellen auf mehreren Benchmark-Datensätzen ist.