Apprentissage de la prédiction sur les graphes avec des autoencodeurs

Nous examinons deux tâches fondamentales associées à l'apprentissage de représentations de graphes : la prédiction de liens et la classification de nœuds semi-supervisée. Nous présentons une nouvelle architecture d'autoencodeur capable d'apprendre une représentation conjointe de la structure locale du graphe et des caractéristiques disponibles des nœuds pour l'apprentissage multi-tâches de prédiction de liens et de classification de nœuds. Notre architecture d'autoencodeur est formée efficacement en une seule étape d'apprentissage pour effectuer simultanément la prédiction de liens et la classification de nœuds, contrairement aux méthodes précédentes qui nécessitent plusieurs étapes d'entraînement difficiles à optimiser. Nous fournissons une évaluation empirique complète de nos modèles sur neuf jeux de données structurés par graphes utilisés comme benchmarks, démontrant des améliorations significatives par rapport aux méthodes connexes pour l'apprentissage de représentations de graphes. Le code source et les données sont disponibles à l'adresse suivante : https://github.com/vuptran/graph-representation-learning