Freundliche Nachbarn: kontextualisierte sequenzweise Link-Vorhersage

Wir schlagen KGT5-context vor, ein einfaches sequenz-zu-sequenz-Modell für die Linkvorhersage (Link Prediction, LP) in Wissensgraphen (Knowledge Graphs, KG). Unsere Arbeit baut auf KGT5 auf, einem kürzlich vorgestellten LP-Modell, das textuelle Merkmale des Wissensgraphen nutzt, eine geringe Modellgröße aufweist und skalierbar ist. Um jedoch eine gute Vorhersageleistung zu erzielen, beruht KGT5 auf einer Ensemble-Integration mit einem Wissensgraphen-Embedding-Modell (KGE), das selbst erheblich groß und kostspielig in der Nutzung ist. In diesem kurzen Beitrag zeigen wir empirisch, dass die Hinzufügung kontextueller Informationen – also Informationen über die unmittelbare Nachbarschaft der Abfrageentität – die Notwendigkeit eines separaten KGE-Modells zur Erzielung guter Leistung verringert. Das resultierende KGT5-context-Modell ist einfach, reduziert die Modellgröße signifikant und erreicht in unserer experimentellen Studie state-of-the-art-Leistung.