ChatKBQA: Ein Generieren-und-Abrufen-Rahmenwerk für die Wissensbasis-Fragebeantwortung mit feintuning-großen Sprachmodellen

Wissensbasierter Fragebeantwortung (KBQA) stellt das Ziel dar, natürlichsprachliche Fragen über umfangreiche Wissensbasen (KBs) zu beantworten, was in zwei entscheidende Schritte zusammengefasst werden kann: Wissensabruf und semantische Analyse. Dennoch bestehen drei zentrale Herausforderungen: ineffizienter Wissensabruf, Fehler beim Abruf, die den semantischen Parser negativ beeinflussen, und die Komplexität früherer KBQA-Methoden. Um diesen Herausforderungen entgegenzutreten, stellen wir ChatKBQA vor, ein neues und einfaches generate-then-retrieve-Framework für KBQA. Dieses Framework schlägt initially die Erzeugung der logischen Form mit feintuningierten großen Sprachmodellen (LLMs) vor, gefolgt von einem unsupervisierten Abrufverfahren zur Ersetzung von Entitäten und Relationen. Dies verbessert sowohl die Generierung als auch den Abruf direkt. Experimentelle Ergebnisse zeigen, dass ChatKBQA neue Standartleistungen auf standardisierten KBQA-Datensätzen wie WebQSP und CWQ erzielt. Diese Arbeit kann auch als ein neues Paradigma angesehen werden, das große Sprachmodelle (LLMs) mit Wissensgraphen (KGs) kombiniert, um interpretierbare und wissensbasierte Fragebeantwortung zu ermöglichen. Unser Code ist öffentlich verfügbar.