
摘要
在半监督分类中,由于多视图数据的多样性和复杂性,现有的大多数图卷积网络(Graph Convolutional Networks, GCN)主要集中在网络架构的构建或显著图结构的保留上,而忽略了完整的图结构对半监督分类的贡献。为了从多视图数据中挖掘出更加完整的分布结构,并考虑到其特异性和共性,我们提出了一种基于图卷积网络的结构融合方法(Structure Fusion based on Graph Convolutional Networks, SF-GCN),以提高半监督分类的性能。SF-GCN不仅可以通过谱嵌入保留每个视图数据的特殊特征,还可以通过多图结构之间的距离度量捕捉多视图数据的共同风格。假设多图结构之间存在线性关系,我们可以通过平衡特异性损失和共性损失来构建结构融合模型的优化函数。通过求解该函数,我们可以同时从多视图数据中获得融合谱嵌入和作为邻接矩阵输入到图卷积网络中的融合结构,用于半监督分类。实验结果表明,SF-GCN在三个具有挑战性的引文网络数据集Cora、Citeseer和Pubmed上的性能优于现有最先进的方法。