Lernen, Vorhersagen auf Graphen mit Autoencodern zu treffen

Wir untersuchen zwei grundlegende Aufgaben im Zusammenhang mit dem Lernen von Graphrepräsentationen: Link-Vorhersage und semi-überwachte Knotenklassifikation. Wir stellen eine neuartige Autoencoder-Architektur vor, die in der Lage ist, eine gemeinsame Repräsentation sowohl der lokalen Graphstruktur als auch der verfügbaren Knoteneigenschaften für das Multi-Task-Lernen von Link-Vorhersage und Knotenklassifikation zu erlernen. Unser Autoencoder wird effizient in einer einzigen Lernphase von Anfang bis Ende trainiert, um gleichzeitig Link-Vorhersagen und Knotenklassifikationen durchzuführen, während frühere verwandte Methoden mehrere Trainingschritte erfordern, die schwierig zu optimieren sind. Wir führen eine umfassende empirische Bewertung unserer Modelle auf neun Benchmark-Datensätzen mit graphbasierter Struktur durch und zeigen signifikante Verbesserungen gegenüber verwandten Methoden für das Lernen von Graphrepräsentationen. Referenzcode und Daten sind unter https://github.com/vuptran/graph-representation-learning verfügbar.