SimplE Einbettung für die Linkvorhersage in Wissensgraphen

Wissensgraphen enthalten Wissen über die Welt und bieten eine strukturierte Darstellung dieses Wissens. Aktuelle Wissensgraphen umfassen nur einen kleinen Teil dessen, was in der Welt wahr ist. Ansätze zur Link-Vorhersage zielen darauf ab, neue Verbindungen für einen Wissensgraphen vorherzusagen, basierend auf den bereits vorhandenen Verbindungen zwischen den Entitäten. Tensorzerlegungsansätze haben sich bei solchen Link-Vorhersageproblemen als vielversprechend erwiesen. Die kanonische polyadische (CP) Zerlegung, die 1927 vorgeschlagen wurde, gehört zu den ersten Tensorzerlegungsansätzen. CP erzielt im Allgemeinen schlechte Ergebnisse bei der Link-Vorhersage, da sie zwei unabhängige Einbettungsvektoren für jede Entität lernt, obwohl diese tatsächlich miteinander verbunden sind. Wir präsentieren eine einfache Erweiterung von CP (die wir SimplE nennen), die es ermöglicht, dass die beiden Einbettungen jeder Entität abhängig gelernt werden. Die Komplexität von SimplE wächst linear mit der Größe der Einbettungen. Die durch SimplE gelernten Einbettungen sind interpretierbar, und bestimmte Arten von Hintergrundwissen können durch das Binden von Gewichten in diese Einbettungen integriert werden. Wir beweisen, dass SimplE vollständig ausdrucksfähig ist, und leiten eine Schranke für die Größe seiner Einbettungen zur vollständigen Ausdrucksfähigkeit her. Wir zeigen empirisch, dass SimplE trotz seiner Einfachheit mehrere state-of-the-art Tensorzerlegungstechniken übertrifft. Der Code von SimplE ist auf GitHub unter https://github.com/Mehran-k/SimplE verfügbar.