
Nous examinons deux tâches fondamentales associées à l'apprentissage de représentations de graphes : la prédiction de liens et la classification de nœuds. Nous présentons une nouvelle architecture d'autoencodeur capable d'apprendre une représentation conjointe de la structure locale du graphe et des caractéristiques disponibles des nœuds pour l'apprentissage multitâche simultané de la prédiction non supervisée des liens et de la classification semi-supervisée des nœuds. Notre modèle, simple mais efficace et polyvalent, est formé efficacement en une seule étape, contrairement aux méthodes précédentes d'embedding profond de graphes qui nécessitent plusieurs étapes d'entraînement difficiles à optimiser. Nous fournissons une évaluation empirique de notre modèle sur cinq jeux de données relationnels structurés en graphe de référence et démontrons une amélioration significative par rapport à trois lignes de base solides pour l'apprentissage de représentations de graphes. Le code source et les données sont disponibles à l'adresse suivante : https://github.com/vuptran/graph-representation-learning