Einbetten von Entitäten und Relationen für das Lernen und die Inferenz in Wissensbasen

Wir betrachten das Lernen von Repräsentationen von Entitäten und Relationen in Wissensbasen unter Verwendung des neuronalen Einbettungsansatzes. Wir zeigen, dass die meisten existierenden Modelle, einschließlich NTN (Socher et al., 2013) und TransE (Bordes et al., 2013b), unter einem einheitlichen Lernrahmen generalisiert werden können, bei dem Entitäten als niedrigdimensionale Vektoren aus einem neuronalen Netzwerk gelernt werden und Relationen durch bilineare und/oder lineare Abbildungsfunktionen dargestellt werden. Innerhalb dieses Rahmens vergleichen wir eine Vielzahl von Einbettungsmodellen in der Aufgabe der Link-Vorhersage. Wir zeigen, dass eine einfache bilineare Formulierung neue Stand-of-the-Art-Ergebnisse für diese Aufgabe erzielt (mit einer Top-10-Genauigkeit von 73,2 % im Vergleich zu 54,7 % durch TransE auf Freebase). Des Weiteren führen wir einen neuen Ansatz ein, der die gelernten Relationseinhüllungen zur Ausgrabung logischer Regeln wie „BornInCity(a,b) und CityInCountry(b,c) => Nationality(a,c)“ nutzt. Wir stellen fest, dass Einbettungen, die aus dem bilinearen Ziel gelernt wurden, besonders gut geeignet sind, um relationale Semantik zu erfassen, und dass die Komposition von Relationen durch Matrixmultiplikation charakterisiert wird. Interessanterweise zeigen wir außerdem, dass unser einbettungsbasierter Regelextraktionsansatz erfolgreich einen Stand-of-the-Art-Ansatz basierend auf Konfidenz in der Ausgrabung von Horn-Regeln übertrifft, die kompositionales Schließen beinhalten.