Lernen von aufmerksamkeitsbasierten Einbettungen für die Beziehungsprognose in Wissensgraphen

Die jüngste Vermehrung von Wissensgraphen (KGs) in Verbindung mit unvollständigen oder partiellen Informationen, in Form fehlender Beziehungen (Links) zwischen Entitäten, hat zahlreiche Forschungsarbeiten zur Vervollständigung von Wissensbasen (auch bekannt als Beziehungsprognose) angeregt. Mehrere kürzliche Studien deuten darauf hin, dass Modelle auf Basis von Faltungsneuronalen Netzen (CNN) reichere und ausdrucksstärkere Merkmals-Embeddings erzeugen und daher auch bei der Beziehungsprognose gute Ergebnisse liefern. Dennoch beobachten wir, dass diese KG-Embeddings Tripel unabhängig voneinander behandeln und somit die komplexen und verborgenen Informationen, die inhärent in der lokalen Nachbarschaft um ein Tripel implizit sind, nicht abdecken. In diesem Zusammenhang schlägt unser Paper eine neuartige, auf Aufmerksamkeit basierende Merkmals-Embedding-Methode vor, die sowohl Entitäts- als auch Beziehungsmerkmale in der Nachbarschaft einer gegebenen Entität erfasst. Zudem integrieren wir in unserem Modell auch Beziehungscluster und mehrstufige Beziehungen. Unsere empirische Studie liefert Einblicke in die Effektivität unseres auf Aufmerksamkeit basierenden Modells und zeigt signifikante Leistungsverbesserungen im Vergleich zu den bislang besten Methoden auf allen Datensätzen.