Neural-Symbolische Modelle für Logische Abfragen auf Wissensgraphen

Das Beantworten komplexer Anfragen erster Ordnung (First-Order Logic, FOL) in Wissensgraphen ist eine grundlegende Aufgabe für mehrstufiges Schließen. Traditionelle symbolische Methoden durchlaufen einen vollständigen Wissensgraphen, um die Antworten zu extrahieren, was eine gute Interpretierbarkeit für jeden Schritt bietet. Neuere neuronale Methoden lernen geometrische Einbettungen für komplexe Anfragen. Diese Methoden können auf unvollständige Wissensgraphen verallgemeinert werden, aber ihr Schließungsprozess ist schwer zu interpretieren. In dieser Arbeit schlagen wir den Graph Neural Network Query Executor (GNN-QE) vor, ein neurales-symbolisches Modell, das die Vorteile beider Welten vereint. GNN-QE zerlegt eine komplexe FOL-Anfrage in Relationenprojektionen und logische Operationen über unscharfe Mengen, was die Interpretierbarkeit von Zwischenvariablen gewährleistet. Um fehlende Verbindungen abzuschätzen, passt GNN-QE ein Graph-Neural-Netzwerk aus der Wissensgraph-Vervollständigung an, um die Relationenprojektionen auszuführen, und modelliert die logischen Operationen mit Produktunscharfer Logik (Product Fuzzy Logic). Experimente mit drei Datensätzen zeigen, dass GNN-QE bei der Beantwortung von FOL-Anfragen erheblich besser abschneidet als bisherige Stand-of-the-Art-Modelle. Gleichzeitig kann GNN-QE die Anzahl der Antworten ohne explizite Überwachung vorhersagen und Visualisierungen für Zwischenvariablen bereitstellen.