
グラフ上の半教師あり学習は、機械学習分野における重要な課題である。近年、グラフニューラルネットワーク(GNN)に基づく最先端の分類手法は、ラベル伝播などの従来手法に比べて優れた性能を示している。しかし、これらのニューラルモデルの複雑なアーキテクチャは、予測メカニズムを高度に複雑化させ、データに内在する貴重な事前知識(例えば、構造的に相関するノードは同じクラスに属する傾向があるなど)を十分に活用できなくなる可能性がある。本論文では、上記の問題に対処するため、知識蒸留(knowledge distillation)に基づくフレームワークを提案する。本フレームワークは、任意の学習済みGNNモデル(教師モデル)から知識を抽出し、設計された学生モデルに注入する。学生モデルは、ラベル伝播と特徴変換という2つのシンプルな予測メカニズムで構成されており、それぞれ構造に基づく事前知識と特徴に基づく事前知識を自然に保持する。具体的には、パラメータ化されたラベル伝播モジュールと特徴変換モジュールの学習可能な組み合わせとして学生モデルを設計している。その結果、学習された学生モデルは、GNN教師モデルの知識と、事前知識の両方の恩恵を受け、より効果的な予測が可能となる。さらに、GNNと比較して、学習された学生モデルは予測プロセスがより解釈しやすい特徴を持つ。本研究では、5つの公開ベンチマークデータセット上で実験を行い、GCN、GAT、APPNP、SAGE、SGC、GCNII、GLPの7種類のGNNモデルを教師モデルとして用いた。実験結果から、学習された学生モデルが対応する教師モデルを平均1.4%~4.7%の範囲で一貫して上回ることが示された。コードとデータは、https://github.com/BUPT-GAMMA/CPF で公開されている。