HyperAIHyperAI

Command Palette

Search for a command to run...

自己注意機構による低次元知識グラフ埋め込みによるリンク予測

Peyman Baghershahi Reshad Hosseini Hadi Moradi

概要

いくつかのモデルは、知識グラフの完成(リンク予測)問題に取り組んできたが、知識グラフを比較的低次元に埋め込む手法を採用している。しかし、最新の性能を達成するには、埋め込みの次元数を著しく増加させる必要があり、巨大な知識ベースにおいてスケーラビリティの問題を引き起こす。近年、Transformerは知識グラフの強力なエンコーダとして成功裏に利用されているが、現存するモデルも依然としてスケーラビリティの課題を抱えている。この制約を克服するため、表現力豊かな低次元埋め込みを獲得できるTransformerベースのモデルを提案する。本モデルでは、エンティティと関係の間の相互情報量を捉えるために、クエリ依存の投影を実現する鍵として多数の自己注意ヘッドを活用する。WN18RRおよびFB15k-237という標準的なリンク予測ベンチマークにおける実験結果から、本モデルが現在の最先端モデルと比較して優れた性能を発揮することが示された。特に、最近の5つの最先端競合モデルと比較して、埋め込みの次元数を平均で66.9%も大幅に削減しながら、有望な成果を達成した。


AIでAIを構築

アイデアからローンチまで — 無料のAIコーディング支援、すぐに使える環境、最高のGPU価格でAI開発を加速。

AI コーディング補助
すぐに使える GPU
最適な料金体系

HyperAI Newsletters

最新情報を購読する
北京時間 毎週月曜日の午前9時 に、その週の最新情報をメールでお届けします
メール配信サービスは MailChimp によって提供されています