15日前

Diffusionはグラフ学習を改善する

Johannes Gasteiger, Stefan Weißenberger, Stephan Günnemann
Diffusionはグラフ学習を改善する
要約

グラフ畳み込みは、大多数のグラフニューラルネットワーク(GNN)の中心的な構成要素であり、通常は直接(1ホップ)隣接頂点間のメッセージパッシングによって近似される。本研究では、直接隣接頂点のみを用いるという制約を排除し、強力でありながら空間的に局所的なグラフ畳み込みである「グラフ拡散畳み込み(Graph Diffusion Convolution: GDC)」を導入する。GDCは、熱核やパーソナライズド・ページランクなどの一般化されたグラフ拡散を活用しており、現実のグラフにおいてしばしばノイズが多く、任意に定義された辺の問題を緩和する。本研究では、GDCがスペクトルベースモデルと密接に関連していることを示し、空間的(メッセージパッシング)手法とスペクトル手法の両方の長所を統合していることを明らかにする。また、さまざまなモデル、教師ありおよび教師なしタスク、多様なデータセットにおいて、メッセージパッシングをグラフ拡散畳み込みに置き換えることで、一貫して顕著な性能向上が得られることを実証する。さらに、GDCはGNNに限定されるものではなく、スペクトルクラスタリングなどの任意のグラフベースのモデルやアルゴリズムと、変更を加えることなく容易に組み合わせ可能であり、それらの計算複雑度にも影響を与えない。本研究の実装コードはオンラインで公開されている。

Diffusionはグラフ学習を改善する | 最新論文 | HyperAI超神経