HyperAIHyperAI
vor 16 Tagen

NESS: Node Embeddings aus statischen Untergraphen

Talip Ucar
NESS: Node Embeddings aus statischen Untergraphen
Abstract

Wir präsentieren einen Rahmen für die Lernung von Knoten-Embeddings aus statischen Teilgraphen (NESS), basierend auf einem Graphen-Autoencoder (GAE) in einer transduktiven Einstellung. NESS beruht auf zwei zentralen Ideen: i) Aufteilung des Trainingsgraphen in mehrere statische, spärliche Teilgraphen mit nicht überlappenden Kanten durch zufällige Kanten-Aufteilung im Vorverarbeitungsschritt, ii) Aggregation der aus jedem Teilgraphen gelernten Knotendarstellungen, um im Testzeitpunkt eine gemeinsame Darstellung des gesamten Graphen zu erhalten. Zudem schlagen wir einen optionalen Ansatz zur kontrastiven Lernung in der transduktiven Einstellung vor. Wir zeigen, dass NESS im Vergleich zu aktuellen Autoencoding-Methoden, die entweder den gesamten Graphen oder stochastische Teilgraphen verwenden, eine verbesserte Knotendarstellung für Aufgaben der Link-Vorhersage liefert. Unsere Experimente belegen zudem, dass NESS die Leistung einer Vielzahl von Graph-Encodern verbessert und state-of-the-art-Ergebnisse für die Link-Vorhersage auf mehreren realen Datensätzen erzielt, die eine breite Bandbreite an Kanten-Homophilie-Ratioen – von starker Heterophilie bis hin zu starker Homophilie – aufweisen.