Jeder Knoten zählt: Selbstverstärkende Graphenkonvolutionalnetze für semisupervises Lernen

Graph Convolutional Networks (GCNs) bieten eine leistungsstarke Methode für graphbasierte semi-überwachte Aufgaben. Allerdings kann die klassische GCN, als lokalisierte erste Ordnungsnäherung des spektralen Graphenkonvolutions, das volle Potenzial der nicht gekennzeichneten Daten nicht nutzen, insbesondere wenn die nicht gekennzeichneten Knoten weit von den gekennzeichneten entfernt sind. Um die Informationen aus den nicht gekennzeichneten Knoten zu nutzen und so das Training für GCNs zu verbessern, schlagen wir ein neues Framework vor, das Self-Ensembling GCN (SEGCN) genannt wird. Dieses verbindet GCNs mit dem Mean Teacher-Modell – einem weiteren leistungsfähigen Modell im Bereich des semi-überwachten Lernens.Das SEGCN besteht aus einem Schülermodell und einem Lehrermodell. Als Schüler lernt es nicht nur, die gekennzeichneten Knoten korrekt zu klassifizieren, sondern strebt auch danach, in schwierigeren Situationen wie einer hohen Dropout-Rate und Graphenkollaps mit dem Lehrermodell auf den nicht gekennzeichneten Knoten konsistent zu sein. Als Lehrer durchschnittelt es die Gewichte des Schülermodells und generiert genauere Vorhersagen, um den Schüler zu führen. In diesem gegenseitig fördernden Prozess können sowohl gekennzeichnete als auch nicht gekennzeichnete Stichproben vollständig genutzt werden, um effektive Gradienten zurückzupropagieren und das GCN zu trainieren.In drei Artikelaufgaben zur Klassifikation, nämlich Citeseer, Cora und Pubmed, haben wir validiert, dass das vorgeschlagene Verfahren den aktuellen Stand der Technik in Bezug auf die Klassifikationsgenauigkeit erreicht.