11 天前

大规模异构信息网络上的非局部注意力学习

{ChengXiang Zhai, Zecheng Zhang, Yuxin Xiao, Carl Yang}
摘要

异构信息网络(Heterogeneous Information Network, HIN)能够有效捕捉现实世界数据集中丰富的结构信息,在众多大数据应用中发挥着关键作用。近年来,图神经网络(Graph Neural Networks, GNNs)已被拓展至HIN的表示学习任务中。其中一项最新进展是层次化注意力机制,该机制同时融合了节点级(nodewise)与语义级(semantic-wise)的注意力机制。然而,由于HIN通常具有多样化的边类型,导致其网络结构更易呈现密集连接特性,若反复应用图卷积层,节点嵌入表示会迅速趋于不可区分,即出现过度平滑(oversmoothness)问题。为缓解此问题,现有面向HIN的图神经网络普遍采用浅层结构,从而限制了对局部邻域之外信息的利用。这一设计缺陷违背了非局部学习(non-local learning)的核心思想——强调捕捉长距离依赖关系的重要性。为有效克服上述局限,本文提出一种新型的异构信息网络非局部注意力框架(Non-local Attention in Heterogeneous Information Networks, NLAH)。该框架通过引入非局部注意力结构,与层次化注意力机制形成互补,从而实现对局部与非局部信息的联合建模。此外,为降低大规模数据集下的计算开销,NLAH设计了一种加权采样策略,显著提升了算法的可扩展性。在三个不同真实世界异构信息网络上的大量实验结果表明,所提出的NLAH框架展现出卓越的可扩展性,并在多个基准任务上显著优于当前最先进的方法。

大规模异构信息网络上的非局部注意力学习 | 最新论文 | HyperAI超神经