13日前

MLMLM:平均尤度マスク言語モデルを用いたリンク予測

Louis Clouatre, Philippe Trempe, Amal Zouaq, Sarath Chandar
MLMLM:平均尤度マスク言語モデルを用いたリンク予測
要約

知識ベース(KB)は、問い合わせが容易で、検証可能かつ解釈可能であるという利点を持つ。しかし、その拡張性は人的作業時間と高品質なデータに依存する。一方、BERTなどのマスク言語モデル(MLM)は、計算資源および非構造化された生テキストデータの量に応じてスケーラブルである。ただし、これらのモデルに含まれる知識は直接的に解釈できないという課題がある。本研究では、MLMを用いたリンク予測を行うことで、KBのスケーラビリティの課題とMLMの解釈性の課題の両方を解決することを提案する。そのために、MLMLM(Mean Likelihood Masked Language Model)という新規アプローチを導入する。MLMLMは、異なるエンティティを生成する際の平均尤度を比較することで、計算的に扱いやすい方法でリンク予測を実現する。実験の結果、WN18RRデータセットにおいて最先端(SotA)の性能を達成し、FB15k-237データセットではエンティティ埋め込みを用いない手法の中で最高の結果を記録した。さらに、これまでに見られなかったエンティティに対するリンク予測においても説得力ある結果を獲得した。これらの結果から、MLMLMは知識ベースに新たなエンティティを導入するための適切な手法であると示唆される。

MLMLM:平均尤度マスク言語モデルを用いたリンク予測 | 最新論文 | HyperAI超神経