2ヶ月前

DDGK: 深層発散グラフカーネルを用いたグラフ表現の学習

Rami Al-Rfou; Dustin Zelle; Bryan Perozzi
DDGK: 深層発散グラフカーネルを用いたグラフ表現の学習
要約

ニューラルネットワークは特徴量エンジニアリングなしでグラフの比較を学習できるでしょうか?本論文では、ドメイン知識や教師ありデータ(つまり、特徴量エンジニアリングやラベル付きグラフ)を使用せずに、グラフ類似度の表現を学習することが可能であることを示します。私たちはDeep Divergence Graph Kernelsという教師なし方法を提案します。この方法は緩和されたグラフ同型概念を符号化するための表現を学習します。私たちの手法は3つの部分から構成されています。まず、各基準グラフに対してその構造を捉えるエンコーダーを学習します。次に、各グラフのペアに対して、基準グラフのノード表現を使用して別のグラフを再構築するクロスグラフ注意ネットワークを訓練します。このアプローチを「同型注意」と呼びます。これは、あるグラフの表現が別のグラフをどの程度符号化できるかを捉えます。私たちは注意強化型エンコーダーの予測結果を使用して、各グラフペアに対する発散スコアを定義します。最後に、これらのペアごとの発散スコアを使用して、すべてのグラフに対する埋め込み空間を作成します。以前の研究とは異なり、多くの研究が1) 教師ありデータへの依存、2) ドメイン固有の知識(例えばWeisfeiler-Lehmanカーネルへの依存)、3) 既知のノード対応関係に頼っている一方で、私たちの教師なし手法はノード表現、グラフ表現、および注意に基づくグラフ間の対応関係を共同で学習します。実験結果では、Deep Divergence Graph Kernelsが教師なしでグラフ間での対応関係を学習できることと、学習した表現が複数の挑戦的なグラフ分類タスクにおいて競合する結果を得られることを示しています。さらに、学習した注意がどのようにサブ構造間での対応関係に洞察を与えるかについても説明しています。