2ヶ月前

KG-BERT: BERTを用いた知識グラフの完成

Liang Yao; Chengsheng Mao; Yuan Luo
KG-BERT: BERTを用いた知識グラフの完成
要約

知識グラフは多くの人工知能タスクにおいて重要なリソースですが、しばしば不完全さに悩まされています。本研究では、事前学習済み言語モデルを用いて知識グラフの補完を行う手法を提案します。知識グラフ内のトリプルをテキストシーケンスとして扱い、これらのトリプルをモデル化するための新しいフレームワークである「Knowledge Graph Bidirectional Encoder Representations from Transformer(KG-BERT)」を提案します。当手法は、トリプルのエンティティとリレーションの説明を入力とし、KG-BERT言語モデルを使用してトリプルのスコアリング関数を計算します。複数のベンチマーク知識グラフに対する実験結果は、当手法がトリプル分類、リンク予測、およびリレーション予測タスクにおいて最先端の性能を達成できることを示しています。

KG-BERT: BERTを用いた知識グラフの完成 | 最新論文 | HyperAI超神経