Modellierung von relationalen Daten mit Graphenkonvolutionalnetzen

Wissensgraphen ermöglichen eine Vielzahl von Anwendungen, darunter die Fragebeantwortung und die Informationsabrufung. Trotz der großen Bemühungen, die in ihre Erstellung und Wartung investiert werden, bleiben selbst die größten (wie z.B. Yago, DBPedia oder Wikidata) unvollständig. Wir stellen Relationale Graphkonvolutionalnetze (R-GCNs) vor und wenden sie auf zwei Standardaufgaben zur Vervollständigung von Wissensbasen an: Link-Vorhersage (Wiederherstellung fehlender Fakten, d.h. Subjekt-Praedikat-Objekt-Tripel) und Entitätsklassifizierung (Wiederherstellung fehlender Entitätsattribute). R-GCNs sind verwandt mit einer jüngeren Klasse von neuronalen Netzen, die auf Graphen operieren, und wurden speziell entwickelt, um mit den hochgradig multi-relationellen Daten umzugehen, die für realistische Wissensbasen charakteristisch sind. Wir zeigen die Effektivität von R-GCNs als eigenständiges Modell für die Entitätsklassifizierung nach. Darüber hinaus demonstrieren wir, dass Faktorisierungsmodelle für Link-Vorhersage wie DistMult durch Bereicherung mit einem Encoder-Modell erheblich verbessert werden können, das Beweise über mehrere Inferenzschritte im relationalen Graph sammelt. Dies führt zu einer erheblichen Verbesserung von 29,8 % auf FB15k-237 im Vergleich zu einem rein dekodierenden Baseline-Modell.