
摘要
图Transformer(Graph Transformers, GTs)近年来作为传统消息传递图神经网络(Graph Neural Networks, GNNs)的替代方法受到广泛关注,这主要得益于其理论上更强的表达能力,以及在标准节点分类基准测试中所展现出的卓越性能,通常显著优于传统GNN模型。在本文中,我们对三种经典GNN模型(GCN、GAT和GraphSAGE)与GTs的性能进行了全面的实证分析,以重新评估GTs的实际优势。研究结果表明,此前报道的GTs性能优越性可能因GNN模型在超参数配置上的不优化而被过度夸大。值得注意的是,在进行轻微的超参数调优后,这些经典GNN模型在所考察的18个多样化数据集中的17个上达到了当前最优(state-of-the-art)性能,其表现不仅与近期GTs相当,甚至在部分数据集上实现超越。此外,我们还开展了详尽的消融实验,系统考察了归一化、Dropout、残差连接以及网络深度等不同GNN配置对节点分类性能的影响。本研究旨在推动图机器学习领域提升实证研究的严谨性,倡导更准确、更公平的模型能力比较与评估方法,从而促进该领域更加科学、可信的发展。