摘要
图结构有助于刻画数据中实体之间的关系。这些关系通过边进行表示,往往能提供额外的上下文信息,从而帮助发现数据中的潜在模式。图神经网络(Graph Neural Networks, GNNs)利用图结构所蕴含的归纳偏置,在各类任务中实现学习与预测。GNN 的核心操作是基于图结构对节点邻域进行特征聚合。在每一跳(hop)中,节点不仅保留自身特征,还会从其邻居处获取额外的组合特征。这些聚合后的特征有助于衡量节点在标签意义上的相似性或差异性,对节点分类等任务具有重要意义。然而,在真实世界的数据中,不同跳数的邻居特征可能与目标节点特征之间缺乏相关性。因此,若对邻居特征进行无差别聚合,可能会引入噪声特征,导致模型性能下降。本文表明,通过有选择性地聚合来自不同跳数的节点特征,相较于默认的聚合方式,可在节点分类任务中取得更优的性能表现。为此,我们提出一种双网络结构的图神经网络(Dual-Net GNN)架构,包含一个分类器模型与一个选择器模型。分类器模型基于输入节点特征的子集进行训练,以预测节点标签;而选择器模型则学习为分类器提供最优的特征子集,以实现最佳性能。两个模型通过联合训练,共同学习出能够显著提升节点标签预测准确率的最佳特征子集。通过大量实验验证,所提出的模型在性能上显著优于现有的特征选择方法以及当前最先进的 GNN 模型,最高提升幅度达到 27.8%。