9 天前
DropGNN:随机丢弃提升图神经网络的表达能力
Pál András Papp, Karolis Martinkus, Lukas Faber, Roger Wattenhofer

摘要
本文研究了一种名为Dropout图神经网络(DropGNNs)的新方法,旨在克服标准图神经网络(GNN)框架的局限性。在DropGNNs中,我们对输入图执行多次GNN运行,每次运行中以随机且独立的方式丢弃部分节点。随后,将这些运行的结果进行融合,以获得最终的输出。我们证明,DropGNNs能够区分那些无法通过消息传递机制的GNN所区分的各类图邻域结构。本文推导出确保丢弃分布可靠的运行次数的理论边界,并证明了关于DropGNNs表达能力及其局限性的若干重要性质。通过实验验证了所提出的表达能力理论结果的正确性。此外,我们还表明,DropGNNs在多个标准GNN基准测试中表现出具有竞争力的性能。