11日前

MoCoKGC:知識グラフ補完のためのモメンタムコントラストエンコーディング

{YuChu Qin, Yanru Zhong, Qingyang Li}
MoCoKGC:知識グラフ補完のためのモメンタムコントラストエンコーディング
要約

近年、知識グラフ補完(KGC)タスクにおける事前学習言語モデル(PLM)の性能向上を図るため、知識グラフの構造情報を統合する研究が多数報告されている。しかし、従来のアプローチは、知識グラフの構造的特徴とエンティティのテキスト記述を効果的に統合して堅牢なエンティティ表現を生成することができていない。この問題に対処するために、本稿では「MoCoKGC(Momentum Contrast Entity Encoding for Knowledge Graph Completion)」を提案する。MoCoKGCは、エンティティ・関係エンコーダ、エンティティエンコーダ、モーメントエンティティエンコーダの3つの主要なエンコーダを組み合わせる。モーメント対照学習(momentum contrastive learning)は、より多くのネガティブサンプルを提供するだけでなく、エンティティ表現の段階的更新を可能にする。その結果、生成されたエンティティ表現を再びエンコーダに再投入することで、知識グラフの構造情報をより効果的に組み込むことが可能となる。さらに、関係の深層プロンプト(deep prompts)を用いることで、エンティティ・関係エンコーダの推論能力を強化している。標準評価指標である平均逆順位(Mean Reciprocal Rank, MRR)において、MoCoKGCモデルはWN18RRデータセットで7.1%、Wikidata5Mデータセットで11%の性能向上を達成し、FB15k-237データセットにおいても現在の最良モデルを上回っている。本研究では、一連の実験を通じて、モデルの各構成要素およびパラメータの役割と貢献度を徹底的に検証している。

MoCoKGC:知識グラフ補完のためのモメンタムコントラストエンコーディング | 最新論文 | HyperAI超神経