GCNH: Eine Einfache Methode Für Repräsentationslernen Auf Heterophilen Graphen

Graphen-neuronale Netze (GNNs) eignen sich gut zum Lernen auf homophilen Graphen, d.h. Graphen, in denen Kanten neigen, Knoten des gleichen Typs zu verbinden. Dennoch bleibt die Erreichung konsistenter GNN-Leistung auf heterophilen Graphen ein offenes Forschungsproblem. Kürzliche Arbeiten haben Vorschläge für Erweiterungen der Standard-GNN-Architekturen gemacht, um die Leistung auf heterophilen Graphen zu verbessern, wobei sie Modellvereinfachung gegen Vorhersagegenauigkeit eingetauscht haben. Diese Modelle scheitern jedoch daran, grundlegende Grapheneigenschaften wie die Verteilung von Nachbarschaftsetiketten zu erfassen, die für das Lernen fundamental sind.In dieser Arbeit schlagen wir GCN für Heterophilie (GCNH) vor, eine einfache und dennoch effektive GNN-Architektur, die sowohl für heterophile als auch für homophile Szenarien geeignet ist. GCNH lernt und kombiniert getrennte Darstellungen für einen Knoten und dessen Nachbarn, indem es pro Schicht einen gelernten Wichtigkeitskoeffizienten verwendet, um den Beitrag der Zentrenknoten und der Nachbarschaft auszugleichen. Wir führen umfangreiche Experimente an acht realweltlichen Graphen und einer Reihe synthetischer Graphen mit unterschiedlichem Grad an Heterophilie durch, um zu zeigen, wie die Designentscheidungen für GCNH zu einem erheblichen Verbesserung gegenüber einem einfachen GCN führen.Darüber hinaus übertrifft GCNH in vier von acht Benchmarks state-of-the-art-Modelle viel höherer Komplexität, während es vergleichbare Ergebnisse auf den restlichen Datensätzen erzielt. Abschließend diskutieren und analysieren wir die geringere Komplexität von GCNH, die in weniger trainierbaren Parametern und schnelleren Trainingszeiten als andere Methoden resultiert. Wir zeigen außerdem, wie GCNH das Problem des Überglättens (oversmoothing) mindert.