
摘要
近期发布的长程图基准(Long-Range Graph Benchmark, LRGB)由Dwivedi等人于2022年提出,引入了一系列依赖于顶点之间长程交互的图学习任务。实证研究表明,在这些任务中,图变换器(Graph Transformers)显著优于消息传递图神经网络(Message Passing GNNs, MPGNNs)。在本文中,我们仔细重新评估了多个MPGNN基线模型以及Rampášek等人于2022年提出的图变换器GPS。通过严格的实证分析,我们证明了由于次优的超参数选择,所报告的性能差距被高估了。值得注意的是,在多个数据集上,经过基本的超参数优化后,性能差距完全消失。此外,我们讨论了缺乏特征归一化对LRGB视觉数据集的影响,并指出了LRGB链接预测指标的一个错误实现。本文的主要目标是在图机器学习社区内建立更高的实证严谨标准。