Fusion von Kontext in Wissensgraphen für die Alltagswissens-Fragebeantwortung

Commonsense-Frage-Antwort (QA) erfordert von einem Modell, allgemeines Wissen und faktische Kenntnisse zu verstehen, um Fragen zu weltweiten Ereignissen zu beantworten. Viele vorherige Ansätze koppeln Sprachmodellierung mit Wissensgraphen (KG). Allerdings enthält ein Wissensgraph zwar reichhaltige strukturelle Informationen, verfügt jedoch über einen Mangel an Kontext, der eine präzisere Interpretation der Konzepte ermöglicht. Dies schafft eine Lücke bei der Integration von Wissensgraphen in Sprachmodelle, insbesondere wenn nur unzureichend beschriftete Daten verfügbar sind. Daher schlagen wir vor, externe Entitätsbeschreibungen einzusetzen, um kontextuelle Informationen für das Verständnis von Wissen bereitzustellen. Wir rufen Beschreibungen verwandter Konzepte aus Wiktionary ab und liefern sie als zusätzliche Eingabe in vortrainierte Sprachmodelle. Das resultierende Modell erreicht eine state-of-the-art-Leistung auf dem CommonsenseQA-Datensatz und die beste Leistung unter nicht-generativen Modellen auf dem OpenBookQA-Datensatz.