Command Palette
Search for a command to run...
DyG2Vec: Effizientes Lernverfahren zur Darstellung dynamischer Graphen
DyG2Vec: Effizientes Lernverfahren zur Darstellung dynamischer Graphen
Zusammenfassung
Zeitliche Graph-Neuronale Netze (Temporal Graph Neural Networks) haben vielversprechende Ergebnisse bei der Lernung induktiver Repräsentationen durch automatisches Extrahieren zeitlicher Muster gezeigt. Allerdings basieren frühere Arbeiten oft auf komplexen Speichermodulen oder ineffizienten Random-Walk-Methoden zur Konstruktion zeitlicher Repräsentationen. Um diese Einschränkungen zu überwinden, präsentieren wir einen effizienten und dennoch leistungsfähigen, aufmerksamkeitsbasierten Encoder, der zeitliche Kantencodierungen und fensterbasierte Subgraph-Probenentnahme nutzt, um task-unabhängige Einbettungen (embeddings) zu generieren. Darüber hinaus schlagen wir eine gemeinsame Einbettungsarchitektur (joint-embedding architecture) vor, die nicht-kontrastives SSL (Self-Supervised Learning) verwendet, um reichhaltige zeitliche Einbettungen ohne Labels zu lernen. Experimentelle Ergebnisse auf sieben Benchmark-Datensätzen zeigen, dass unser Modell im Durchschnitt bei der zukünftigen Link-Vorhersage-Aufgabe in der transduktiven Einstellung die State-of-the-Art-Baselines um 4,23 % und in der induktiven Einstellung um 3,30 % übertreffen kann, während es nur 5-10-mal weniger Trainings-/Inferenzzeit benötigt. Schließlich werden verschiedene Aspekte des vorgeschlagenen Frameworks durch experimentelle Analysen und Auslassungsstudien (ablation studies) untersucht. Der Code ist öffentlich verfügbar unter https://github.com/huawei-noah/noah-research/tree/master/graph_atlas.