Graphbasierte Schlussfolgerung über heterogenes externes Wissen für commonsense-basierte Fragebeantwortung

Die Aufgabe des Common-sense-Fragenbeantwortens zielt darauf ab, Fragen zu beantworten, die Hintergrundwissen erfordern, das nicht explizit in der Frage enthalten ist. Die zentrale Herausforderung besteht darin, Beweise aus externen Wissensquellen zu gewinnen und basierend auf diesen Beweisen Vorhersagen zu treffen. In jüngeren Arbeiten wird entweder gelernt, Beweise aus menschlich annotierten Beweisen zu generieren, was kostspielig ist, oder Beweise aus strukturierten oder unstrukturierten Wissensbasen zu extrahieren – letzteres jedoch nutzt nicht gleichzeitig die Vorteile beider Quellen. In dieser Arbeit schlagen wir vor, Beweise automatisch aus heterogenen Wissensquellen zu extrahieren und Fragen auf Basis der extrahierten Beweise zu beantworten. Konkret extrahieren wir Beweise sowohl aus einer strukturierten Wissensbasis (z. B. ConceptNet) als auch aus unstrukturierten Wikipedia-Texten. Für beide Quellen erstellen wir Graphen, um die relationalen Strukturen der Beweise zu erfassen. Auf Basis dieser Graphen entwickeln wir einen graphenbasierten Ansatz, der aus einem Modul zur graphenbasierten kontextuellen Wortrepräsentationslernung und einem graphenbasierten Inferenzmodul besteht. Das erste Modul nutzt strukturelle Informationen des Graphen, um die Distanz zwischen Wörtern neu zu definieren, um verbesserte kontextuelle Wortrepräsentationen zu erlernen. Das zweite Modul verwendet Graph-Convolutional Networks, um Nachbarinformationen in die Repräsentationen der Knoten einzukodieren, und aggregiert die Beweise mittels eines Graph-Attention-Mechanismus zur Vorhersage der endgültigen Antwort. Experimentelle Ergebnisse auf dem CommonsenseQA-Datensatz zeigen, dass unser graphenbasierter Ansatz, der beide Wissensquellen nutzt, gegenüber starken Baselines eine Verbesserung erzielt. Unser Ansatz erreicht eine state-of-the-art-Genauigkeit von 75,3 % auf der CommonsenseQA-Plattform.