
要約
グラフニューラルネットワーク(GNNs)は、グラフ構造データの表現学習において強力な手段です。ほとんどのGNNはメッセージ伝播スキームを使用しており、このスキームではノードの埋め込みが反復的に近傍ノードの情報を集約することによって更新されます。ノードの影響をよりよく表現するために、注意機構が普及し、集約時に訓練可能な重みをノードに割り当てる方法として使用されています。注意機構を用いたGNNは様々なタスクで優れた結果を達成していますが、それらの識別能力に関する明確な理解が欠けています。本研究では、注意機構をアグリゲーターとして採用するGNNの表現特性について理論的な分析を行いました。我々の分析により、これらの注意機構に基づくGNNが特定の異なる構造を区別できないすべての場合が明らかになりました。これらのケースは、注意機構による集約において基数情報が無視されることから生じています。注意機構に基づくGNNの性能向上のために、任意の種類の注意機構に適用できる基数保存型注意(Cardinality Preserved Attention: CPA)モデルを提案します。ノード分類とグラフ分類における実験結果は、我々の理論的分析を確認するとともに、CPAモデルの競争力のある性能を示しています。