11 天前

通用图变换器自注意力网络

Dai Quoc Nguyen, Tu Dinh Nguyen, Dinh Phung
通用图变换器自注意力网络
摘要

我们提出了一种基于Transformer的图神经网络模型,命名为UGformer,用于学习图结构表示。具体而言,本文介绍了UGformer的两种变体:第一种变体(于2019年9月发布)在每个输入节点的采样邻居集合上应用Transformer;第二种变体(于2021年5月发布)则在所有输入节点上应用Transformer。实验结果表明,第一种UGformer变体在图分类任务的归纳设置(inductive setting)以及无监督直推设置(unsupervised transductive setting)下的基准数据集上均达到了当前最优的准确率;第二种UGformer变体在归纳文本分类任务中也取得了当前最优的性能表现。代码已公开,获取地址为:\url{https://github.com/daiquocnguyen/Graph-Transformer}。