Komplexe Abfragebeantwortung mit neuronalen Linkprädiktoren

Neuronale Link-Predictoren sind äußerst nützlich zur Identifikation fehlender Kanten in großen Wissensgraphen. Es ist jedoch noch nicht klar, wie diese Modelle für die Beantwortung komplexerer Abfragen genutzt werden können, die in verschiedenen Bereichen auftreten, wie zum Beispiel Abfragen mit logischen Konjunktionen ($\land$), Disjunktionen ($\lor$) und existentiellen Quantifizierern ($\exists$), während gleichzeitig fehlende Kanten berücksichtigt werden. In dieser Arbeit schlagen wir einen Rahmen vor, um komplexere Abfragen auf unvollständigen Wissensgraphen effizient zu beantworten. Wir übersetzen jede Abfrage in ein von Anfang bis Ende differenzierbares Ziel, wobei der Wahrheitswert jedes Atoms durch einen vortrainierten neuronalen Link-Predictor berechnet wird. Anschließend analysieren wir zwei Lösungsansätze für das Optimierungsproblem, einschließlich gradientbasierter und kombinatorischer Suche. In unseren Experimenten erzeugt der vorgeschlagene Ansatz genauere Ergebnisse als state-of-the-art-Methoden – schwarze Boxen neuronaler Modelle, die auf Millionen generierter Abfragen trainiert wurden – ohne dass eine große und vielfältige Menge an komplexen Abfragen benötigt wird. Mit einer um Größenordnungen geringeren Menge an Trainingsdaten erreichen wir relative Verbesserungen zwischen 8 % und 40 % in den Hits@3 über verschiedene Wissensgraphen hinweg, die faktische Informationen enthalten. Schließlich zeigen wir, dass es möglich ist, das Ergebnis unseres Modells in Bezug auf die identifizierten Zwischenergebnisse für jedes der komplexen Abfrageatome zu erklären. All unser Quellcode und unsere Datensätze sind online verfügbar unter https://github.com/uclnlp/cqd.