HyperAIHyperAI

Command Palette

Search for a command to run...

グラフニューラルネットワークにおける注意メカニズムの改善:基数保存を通じて

Shuo Zhang; Lei Xie

概要

グラフニューラルネットワーク(GNNs)は、グラフ構造データの表現学習において強力な手段です。ほとんどのGNNはメッセージ伝播スキームを使用しており、このスキームではノードの埋め込みが反復的に近傍ノードの情報を集約することによって更新されます。ノードの影響をよりよく表現するために、注意機構が普及し、集約時に訓練可能な重みをノードに割り当てる方法として使用されています。注意機構を用いたGNNは様々なタスクで優れた結果を達成していますが、それらの識別能力に関する明確な理解が欠けています。本研究では、注意機構をアグリゲーターとして採用するGNNの表現特性について理論的な分析を行いました。我々の分析により、これらの注意機構に基づくGNNが特定の異なる構造を区別できないすべての場合が明らかになりました。これらのケースは、注意機構による集約において基数情報が無視されることから生じています。注意機構に基づくGNNの性能向上のために、任意の種類の注意機構に適用できる基数保存型注意(Cardinality Preserved Attention: CPA)モデルを提案します。ノード分類とグラフ分類における実験結果は、我々の理論的分析を確認するとともに、CPAモデルの競争力のある性能を示しています。


AIでAIを構築

アイデアからローンチまで — 無料のAIコーディング支援、すぐに使える環境、最高のGPU価格でAI開発を加速。

AI コーディング補助
すぐに使える GPU
最適な料金体系

HyperAI Newsletters

最新情報を購読する
北京時間 毎週月曜日の午前9時 に、その週の最新情報をメールでお届けします
メール配信サービスは MailChimp によって提供されています
グラフニューラルネットワークにおける注意メカニズムの改善:基数保存を通じて | 記事 | HyperAI超神経