HyperAIHyperAI

Command Palette

Search for a command to run...

Vers une meilleure apprentissage des représentations de graphes grâce à la décomposition et au filtrage paramétrés

Mingqi Yang Wenjie Feng Yanming Shen Bryan Hooi

Résumé

Proposer une matrice efficace et flexible pour représenter un graphe constitue un défi fondamental qui a été exploré sous plusieurs angles, par exemple par le biais du filtrage dans les transformations de Fourier sur graphe. Dans ce travail, nous proposons un cadre général et novateur qui unifie de nombreux modèles existants de réseaux de neurones sur graphe (GNN) du point de vue de la décomposition paramétrée et du filtrage, et montrons comment ce cadre améliore la flexibilité des GNN tout en atténuant les problèmes de lissage et d'amplification observés dans les modèles existants. Fondamentalement, nous démontrons que les convolutions spectrales sur graphe, largement étudiées et basées sur des filtres polynomiaux apprenables, représentent une variante contrainte de cette formulation, et la relaxation de ces contraintes permet à notre modèle d'exprimer simultanément la décomposition et le filtrage souhaités. À partir de ce cadre généralisé, nous avons développé des modèles simples à implémenter, tout en obtenant des améliorations significatives et une efficacité computationnelle accrue sur diverses tâches d'apprentissage sur graphe. Le code est disponible à l'adresse suivante : https://github.com/qslim/PDF.


Créer de l'IA avec l'IA

De l'idée au lancement — accélérez votre développement IA avec le co-codage IA gratuit, un environnement prêt à l'emploi et le meilleur prix pour les GPU.

Codage assisté par IA
GPU prêts à l’emploi
Tarifs les plus avantageux

HyperAI Newsletters

Abonnez-vous à nos dernières mises à jour
Nous vous enverrons les dernières mises à jour de la semaine dans votre boîte de réception à neuf heures chaque lundi matin
Propulsé par MailChimp