HyperAIHyperAI
vor 2 Monaten

Die Brücke zwischen Wissensbasis und Text: Nutzung strukturiert wissensbasierter Vorabtrainings für KBQA

Guanting Dong; Rumei Li; Sirui Wang; Yupeng Zhang; Yunsen Xian; Weiran Xu
Die Brücke zwischen Wissensbasis und Text: Nutzung strukturiert wissensbasierter Vorabtrainings für KBQA
Abstract

Wissensbasierter Fragebeantwortung (KBQA) zielt darauf ab, natürlichsprachliche Fragen mit faktischen Informationen wie Entitäten und Relationen aus Wissensbasen zu beantworten. Allerdings stellen traditionelle vortrainierte Sprachmodelle (PLMs), die direkt auf umfangreichen natürlichsprachlichen Korpora vortrainiert werden, Herausforderungen bei der Verständnis- und Darstellungsfähigkeit komplexer Subgraphen in strukturierten Wissensbasen dar. Um die Lücke zwischen Texten und strukturierten Wissensbasen zu schließen, schlagen wir eine vortrainierte Methode mit strukturiertem Wissen (SKP) vor. Im Vortrainingsstadium führen wir zwei neuartige Aufgaben ein, die das Modell effektiv leiten, um die implizite Beziehung zu lernen und bessere Darstellungen komplexer Subgraphen zu erzeugen. Für die nachgelagerte KBQA-Aufgabe entwickeln wir außerdem eine effiziente Linearisierungsstrategie und einen Intervall-Aufmerksamkeitsmechanismus, die das Modell dabei unterstützen, komplexe Subgraphen besser zu kodieren und die Störung durch irrelevante Subgraphen während des Schließens abzuschirmen. Detaillierte Experimente und Analysen auf WebQSP bestätigen die Effektivität von SKP, insbesondere die erhebliche Verbesserung der Subgraph-Retrieval-Genauigkeit (+4,08% H@10).

Die Brücke zwischen Wissensbasis und Text: Nutzung strukturiert wissensbasierter Vorabtrainings für KBQA | Neueste Forschungsarbeiten | HyperAI