HyperAIHyperAI

Command Palette

Search for a command to run...

图传播 Transformer 用于图表示学习

Zhe Chen Hao Tan Tao Wang Tianrun Shen Tong Lu Qiuying Peng Cheng Cheng Yue Qi

摘要

本文提出了一种用于图表示学习的新型 Transformer 架构。我们的方法的核心在于在构建 Transformer 块中的注意力模块时,充分考虑图中节点和边之间的信息传播。具体而言,我们提出了一种新的注意力机制,称为图传播注意力(Graph Propagation Attention, GPA)。该机制通过三种方式显式地传递节点和边之间的信息,即节点到节点、节点到边以及边到节点,这对于学习图结构数据至关重要。在此基础上,我们设计了一种有效的 Transformer 架构,命名为图传播 Transformer (Graph Propagation Transformer, GPTrans),以进一步帮助学习图数据。我们在多个基准数据集上进行了一系列广泛的图学习实验,验证了GPTrans的性能。这些结果表明,我们的方法在性能上优于许多基于 Transformer 的最先进图模型。代码将在https://github.com/czczup/GPTrans发布


用 AI 构建 AI

从创意到上线——通过免费 AI 协同编码、开箱即用的环境和最优惠的 GPU 价格,加速您的 AI 开发。

AI 协同编码
开箱即用的 GPU
最优定价

HyperAI Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供