2ヶ月前

SPARKLE: 解码時に直接的なKG統合を用いたSPARQL生成の強化

Jaebok Lee; Hyeonjeong Shin
SPARKLE: 解码時に直接的なKG統合を用いたSPARQL生成の強化
要約

既存のKBQA(Knowledge Base Question Answering)手法は、従来、エンティティリンク、サブグラフ検索、クエリ構造生成などの多段階プロセスに依存してきました。しかし、これらの多段階アプローチは先行ステップの精度に大きく影響を受け、誤差が連鎖的に発生し、推論時間が増加する傾向があります。一部の研究ではエンドツーエンドモデルの利用が検討されていますが、しばしば精度が低く、基盤データによってサポートされない非機能的なクエリを生成するという問題があります。さらに、これまでの大多数の手法は静的な訓練データに限定されており、知識ベースが時間とともに進化する性質を見落としている可能性があります。これらの課題に対処するために、私たちは新しいエンドツーエンドの自然言語からSPARQLへの変換フレームワーク「SPARKLE」を提案します。特に、「SPARKLE」はデコーディング時に直接知識ベースの構造を利用することで、知識を効果的にクエリ生成に統合しています。当研究では、推論時に単純に知識ベースを参照するだけで非実行可能なクエリ生成が大幅に減少することを明らかにしました。「SPARKLE」はSimpleQuestions-Wikiで新たな最先端の結果を達成し、LCQuAD 1.0において金標準エンティティを使用しないモデルの中で最高のF1スコアを得ています(ただしWebQSPデータセットではやや低い結果となっています)。最後に、「SPARKLE」の高速な推論速度と訓練段階と推論段階で知識ベースが異なる場合でも適応できる能力を示します。

SPARKLE: 解码時に直接的なKG統合を用いたSPARQL生成の強化 | 最新論文 | HyperAI超神経