
要約
Kipf と Welling が最近提案したグラフ畳み込みネットワーク (GCN) は、半教師付き学習のための効果的なグラフモデルです。しかし、このモデルは当初から訓練データとテストデータの両方がある状況で学習することを想定していました。さらに、層間での再帰的な近傍展開は、大規模かつ密なグラフでの訓練に時間とメモリの課題をもたらします。テストデータの同時利用要件を緩和するために、我々はグラフ畳み込みを確率測度下での埋め込み関数の積分変換として解釈しました。このような解釈により、モンテカルロ手法を使用して一貫して積分値を推定することができ、本研究で提案するようにバッチ訓練スキーム(FastGCN)が可能になります。重要度サンプリングによって強化された FastGCN は、訓練において効率的であるだけでなく、推論でも良好な一般化性能を示します。我々は一連の実験を行い、その有効性を GCN や関連モデルと比較して示しています。特に、訓練は数桁効率的でありながら、予測精度は同等であることを確認しました。