HyperAIHyperAI
vor 15 Tagen

Fusion von Kontext in Wissensgraphen für die Alltagswissens-Fragebeantwortung

Yichong Xu, Chenguang Zhu, Ruochen Xu, Yang Liu, Michael Zeng, Xuedong Huang
Fusion von Kontext in Wissensgraphen für die Alltagswissens-Fragebeantwortung
Abstract

Commonsense-Frage-Antwort (QA) erfordert von einem Modell, allgemeines Wissen und faktische Kenntnisse zu verstehen, um Fragen zu weltweiten Ereignissen zu beantworten. Viele vorherige Ansätze koppeln Sprachmodellierung mit Wissensgraphen (KG). Allerdings enthält ein Wissensgraph zwar reichhaltige strukturelle Informationen, verfügt jedoch über einen Mangel an Kontext, der eine präzisere Interpretation der Konzepte ermöglicht. Dies schafft eine Lücke bei der Integration von Wissensgraphen in Sprachmodelle, insbesondere wenn nur unzureichend beschriftete Daten verfügbar sind. Daher schlagen wir vor, externe Entitätsbeschreibungen einzusetzen, um kontextuelle Informationen für das Verständnis von Wissen bereitzustellen. Wir rufen Beschreibungen verwandter Konzepte aus Wiktionary ab und liefern sie als zusätzliche Eingabe in vortrainierte Sprachmodelle. Das resultierende Modell erreicht eine state-of-the-art-Leistung auf dem CommonsenseQA-Datensatz und die beste Leistung unter nicht-generativen Modellen auf dem OpenBookQA-Datensatz.

Fusion von Kontext in Wissensgraphen für die Alltagswissens-Fragebeantwortung | Neueste Forschungsarbeiten | HyperAI