
要約
近年、事前学習された言語モデル(PLM)が大量のテキストから事実知識を捉える能力を持つことが示されており、これによりPLMを活用した知識グラフ補完(KGC)モデルの提案が進んできた。しかし、これらのモデルは依然として最先端(SOTA)のKGCモデルと比べて性能が劣っている。本研究では、この低性能の主な要因を以下の2点に特定した。(1)評価設定の不正確さ:閉世界仮定(CWA)に基づく評価設定は、PLMが外部知識を多く導入する特性を考慮していないため、PLMベースのKGCモデルの実力を過小評価してしまう可能性がある。(2)PLMの不適切な活用:多数のPLMベースKGCモデルは、エンティティおよび関係のラベルを単純に連結して入力としているが、その結果、意味的に整合性のない文が生成され、PLMに内在する知識を十分に活用できていない。これらの問題を軽減するため、開世界仮定(OWA)に基づくより正確な評価設定を提示する。OWAでは、知識グラフ(KG)に含まれない知識について、手動で正誤を確認することで、評価の信頼性を高める。さらに、プロンプトチューニングのアイデアを踏まえ、新たなPLMベースKGCモデル「PKGC」を提案する。本モデルの基本的な考え方は、各三項組とそのサポート情報を自然なプロンプト文に変換し、それをPLMに投入して分類処理を行うことである。2つのKGCデータセットにおける実験結果から、OWAは特にリンク予測においてKGCモデルの評価により信頼性があることが示され、また、PKGCモデルはCWAおよびOWAの両設定において有効性を確認した。