11日前
スペクトルグラフ表現学習のための符号および基底不変ネットワーク
Derek Lim, Joshua Robinson, Lingxiao Zhao, Tess Smidt, Suvrit Sra, Haggai Maron, Stefanie Jegelka

要約
我々は、固有ベクトルが示す2つの重要な対称性に対して不変な新しいニューラルアーキテクチャとして、SignNet および BasisNet を提案する。これらは以下の2つの対称性に不変である:(i) 符号反転(符号の反転):もし $v$ が固有ベクトルであれば、$-v$ もまた固有ベクトルであるため、符号の反転に対して不変である;(ii) より一般的な基底対称性:高次元の固有空間では、基底固有ベクトルの選び方が無限に存在するため、このような対称性が生じる。本研究では、ある条件下でこれらのネットワークが普遍的(universality)であることを証明した。すなわち、所望の不変性を持つ任意の連続関数を、固有ベクトルの関数として任意に近似可能であることを示した。ラプラシアン固有ベクトルを用いる場合、既存のスペクトル手法よりも明確に表現力が優れていることが証明される。例えば、これらはすべてのスペクトルグラフ畳み込み、特定のスペクトルグラフ不変量、および従来提案されたグラフの位置符号化(positional encoding)を特殊ケースとして包含する。実験の結果、分子グラフ回帰、表現力豊かなグラフ表現の学習、三角メッシュ上のニューラルフィールドの学習において、既存のベースラインを著しく上回ることが確認された。本研究のコードは、https://github.com/cptq/SignNet-BasisNet にて公開されている。