HyperAIHyperAI

Command Palette

Search for a command to run...

Diffusion-Jump GNNs:学習可能なメトリックフィルタを用いたホモフィリーアプローチ

Ahmed Begga Francisco Escolano Miguel Angel Lozano Edwin R. Hancock

概要

高次元グラフニューラルネットワーク(HO-GNNs)は、ラベル分布がグラフ構造と相関を持たない異種性(heterophilic)領域において一貫した潜在空間を推定する目的で開発されてきた。しかし、現存する大多数のHO-GNNは「ホップ(hop)ベース」であり、遷移行列の累乗に依存している。その結果、これらのアーキテクチャは分類損失に対して完全に反応せず、得られる構造的フィルタのサポート(support)は静的となる。言い換えれば、これらのネットワークではフィルタのサポートや係数自体を学習することができず、代わりに複数のフィルタの組み合わせのみを学習するにとどまる。上記の課題に対処するため、本研究では「拡散-ジャンプGNN(Diffusion-jump GNN)」を提案する。この手法は、漸近的拡散距離(asymptotic diffusion distances)に基づき、ジャンプ(跳躍)を操作するものである。拡散ポンプ(diffusion-pump)がペアワイズ距離を生成し、その射影が各構造的フィルタのサポートおよび係数を決定する。これらのフィルタは「ジャンプ」と呼ばれる。なぜなら、同様のラベルを持つ散在したノード間の結合を探索するため、広範なスケールを網羅的に探索するからである。実際、この全体のプロセスは分類損失によって制御される。ジャンプと拡散距離の両方が分類誤差に応じて反応する(すなわち、学習可能となる)。異種性領域における同種性(homophily)——すなわち、分類結果としての潜在空間を局所的に滑らかに学習するプロセス——は、ディリクレ問題(Dirichlet problem)として定式化される。既知のラベルが境界ノードを決定し、拡散ポンプは半教師付きクラスタリングが標準的な非教師付きクラスタリングから最小限の逸脱となるように保証する。これにより、分類誤差を最小化するため、拡散距離およびそれに続くジャンプが更新される。ディリクレ定式化にはいくつかの利点がある。まず、従来のエッジ異種性(edge heterophily)を超えた新たな測度である「構造的異種性(structural heterophily)」の定義が可能になる。また、学習可能な拡散距離、吸収型ランダムウォーク、確率的拡散との関係性の探求も可能となる。


AIでAIを構築

アイデアからローンチまで — 無料のAIコーディング支援、すぐに使える環境、最高のGPU価格でAI開発を加速。

AI コーディング補助
すぐに使える GPU
最適な料金体系

HyperAI Newsletters

最新情報を購読する
北京時間 毎週月曜日の午前9時 に、その週の最新情報をメールでお届けします
メール配信サービスは MailChimp によって提供されています