摘要
本文提出了一种新颖的细粒度视觉分类(Fine-Grained Visual Classification, FGVC)方法,通过引入图神经网络(Graph Neural Networks, GNNs)来促进高阶特征交互,重点在于构建类间与类内区域图。与以往FGVC方法通常将全局特征与局部特征分离处理不同,本方法在学习过程中通过图结构无缝融合全局与局部特征。类间图(inter-region graphs)用于捕捉长程依赖关系,以识别整体模式;类内图(intra-region graphs)则通过探索高维卷积特征,深入挖掘物体特定区域内的细微差异。本方法的核心创新在于采用共享GNN结构,并结合注意力机制与近似个性化传播神经预测(Approximate Personalized Propagation of Neural Predictions, APPNP)消息传递算法,显著提升了信息传播效率,增强了特征判别能力,同时简化了模型架构,提高了计算效率。此外,引入残差连接进一步提升了模型性能与训练稳定性。大量实验在主流FGVC基准数据集上取得了当前最优(state-of-the-art)结果,充分验证了所提方法的有效性。本工作凸显了图神经网络在建模高层特征交互方面的潜力,区别于以往FGVC方法多聚焦于特征表示的单一维度。相关源代码已公开,地址为:https://github.com/Arindam-1991/I2-HOFI。