Des insights plus profonds sur les réseaux de convolution graphique pour l'apprentissage semi-supervisé

De nombreux problèmes intéressants en apprentissage automatique sont réexaminés avec de nouveaux outils d'apprentissage profond. Pour l'apprentissage semi-supervisé basé sur les graphes, un développement récent et important est celui des réseaux de neurones à convolution graphique (GCNs), qui intègrent efficacement les caractéristiques locales des sommets et la topologie du graphe dans les couches de convolution. Bien que le modèle GCN se compare favorablement aux autres méthodes de pointe, ses mécanismes ne sont pas clairs et il nécessite encore une quantité considérable de données étiquetées pour la validation et la sélection du modèle. Dans cet article, nous approfondissons notre compréhension du modèle GCN et abordons ses limites fondamentales. Premièrement, nous montrons que la convolution graphique du modèle GCN est en réalité une forme spéciale de lissage laplacien, ce qui est la raison principale pour laquelle les GCNs fonctionnent, mais cela soulève également des préoccupations potentielles concernant le sur-lissage avec de nombreuses couches de convolution. Deuxièmement, pour surmonter les limitations du modèle GCN avec des architectures peu profondes, nous proposons des approches de co-formation et d'auto-formation pour entraîner les GCNs. Nos approches améliorent considérablement les performances des GCNs lorsqu'ils disposent de très peu d'étiquettes, et les dispensent de nécessiter des étiquettes supplémentaires pour la validation. Des expériences extensives sur des benchmarks ont vérifié nos théories et propositions.