Fragekalibrierung und Multi-Hop-Modellierung für zeitbasierte Fragebeantwortung

Viele Modelle, die Wissensgraphen (KGs) nutzen, haben in letzter Zeit beachtliche Erfolge bei Aufgaben des Frage-Antwort-Verstehens (QA) erzielt. In der realen Welt sind viele in KGs enthaltene Fakten zeitlich eingeschränkt, weshalb temporale KGQA zunehmend Aufmerksamkeit erhält. Trotz der zahlreichen Fortschritte vorangegangener Modelle in der temporalen KGQA weisen diese noch mehrere Einschränkungen auf. (I) Sie nutzen vortrainierte Sprachmodelle (PLMs), um Fragerepräsentationen zu erzeugen, wobei PLMs tendenziell auf Entitätsinformationen fokussieren und die durch zeitliche Einschränkungen verursachten Entitätsveränderungen vernachlässigen, was letztlich dazu führt, dass spezifische zeitliche Repräsentationen von Entitäten nicht erlernt werden können. (II) Sie betonen weder die graphische Struktur zwischen Entitäten noch modellieren explizit die mehrschrittigen Beziehungen im Graphen, was die Lösung komplexer mehrschrittiger Frage-Antwort-Aufgaben erschwert. Um dieses Problem zu mildern, schlagen wir einen neuen Ansatz namens Question Calibration and Multi-Hop Modeling (QC-MHM) vor. Konkret kalibrieren wir zunächst die Fragerepräsentation durch die Fusion von Frage und zeitlich eingeschränkten Konzepten im KG. Anschließend bauen wir eine GNN-Schicht zur Durchführung mehrschrittiger Nachrichtenweitergabe auf. Schließlich kombinieren wir die Fragerepräsentation mit der durch die GNN generierten Embedding-Ausgabe, um die endgültige Vorhersage zu erzeugen. Empirische Ergebnisse bestätigen, dass das vorgeschlagene Modell auf dem Benchmark-Datensatz eine bessere Leistung als die derzeit besten Ansätze erzielt. Insbesondere verbessern sich die Hits@1- und Hits@10-Ergebnisse von QC-MHM bei den komplexen Fragen des CronQuestions-Datensatzes im Vergleich zum besten Baseline um absolut 5,1 % bzw. 1,2 %. Darüber hinaus kann QC-MHM interpretierbare und vertrauenswürdige Vorhersagen generieren.