HyperAIHyperAI
il y a 12 jours

Optimisation robuste comme augmentation de données pour les graphes à grande échelle

Kezhi Kong, Guohao Li, Mucong Ding, Zuxuan Wu, Chen Zhu, Bernard Ghanem, Gavin Taylor, Tom Goldstein
Optimisation robuste comme augmentation de données pour les graphes à grande échelle
Résumé

L’augmentation de données aide les réseaux neuronaux à généraliser plus efficacement en élargissant l’ensemble d’apprentissage, mais il reste une question ouverte sur la manière d’augmenter de manière efficace les données graphes afin d’améliorer les performances des GNN (Graph Neural Networks). Alors que la plupart des régularisateurs graphes existants se concentrent sur la manipulation des structures topologiques du graphe par ajout/suppression d’arêtes, nous proposons une méthode d’augmentation des caractéristiques des nœuds pour améliorer les performances. Nous introduisons FLAG (Free Large-scale Adversarial Augmentation on Graphs), une approche itérative qui enrichit les caractéristiques des nœuds par des perturbations adverses basées sur les gradients durant l’apprentissage. En rendant le modèle invariant aux petites fluctuations des données d’entrée, notre méthode améliore la généralisation aux échantillons hors distribution et renforce les performances en phase de test. FLAG est une méthode universelle adaptée aux données graphes, applicable de manière cohérente aux tâches de classification de nœuds, de prédiction de liens et de classification de graphes. Elle est également très flexible et évolutive, et peut être mise en œuvre avec n’importe quel modèle GNN comme architecture de base et sur des jeux de données à grande échelle. Nous démontrons l’efficacité et la stabilité de notre méthode à travers des expériences étendues et des études d’ablation. Nous fournissons également des observations intuitives permettant une compréhension plus approfondie de notre approche.

Optimisation robuste comme augmentation de données pour les graphes à grande échelle | Articles de recherche récents | HyperAI