HyperAIHyperAI
il y a 2 mois

Simplification des réseaux de convolution graphique

Felix Wu; Tianyi Zhang; Amauri Holanda de Souza Jr.; Christopher Fifty; Tao Yu; Kilian Q. Weinberger
Simplification des réseaux de convolution graphique
Résumé

Les réseaux de neurones convolutionnels sur graphes (GCNs) et leurs variantes ont connu une attention considérable et sont devenus les méthodes de facto pour l'apprentissage des représentations de graphes. Les GCNs s'inspirent principalement des approches récentes d'apprentissage profond, ce qui peut entraîner une complexité superflue et des calculs redondants. Dans cet article, nous réduisons cette complexité excessive en supprimant successivement les non-linéarités et en fusionnant les matrices de poids entre les couches consécutives. Nous analysons théoriquement le modèle linéaire résultant et montrons qu'il correspond à un filtre passe-bas fixe suivi d'un classifieur linéaire. De manière notable, notre évaluation expérimentale démontre que ces simplifications n'affectent pas négativement la précision dans de nombreuses applications en aval. De plus, le modèle résultant s'adapte à des jeux de données plus volumineux, est naturellement interprétable et offre jusqu'à deux ordres de grandeur d'accélération par rapport à FastGCN.

Simplification des réseaux de convolution graphique | Articles de recherche récents | HyperAI