MixHop: Höherstufige Graphenkonvolutionale Architekturen durch verdünnte Nachbarschaftsmischung

Bestehende gängige Methoden für das semisupervisierte Lernen mit Graph Neural Networks (wie zum Beispiel der Graph Convolutional Network) können nachweislich keine allgemeine Klasse von Nachbarschaftsmischungsbeziehungen lernen. Um diese Schwäche zu beheben, schlagen wir ein neues Modell vor, MixHop, das diese Beziehungen, einschließlich Differenzoperatoren, durch wiederholtes Mischen der Merkmalsrepräsentationen von Nachbarn in verschiedenen Abständen lernen kann. MixHop erfordert weder zusätzlichen Speicherplatz noch erhöhte Rechenkomplexität und übertrifft herausfordernde Baseline-Methoden. Darüber hinaus schlagen wir eine Sparsitätsregularisierung vor, die es uns ermöglicht, zu visualisieren, wie das Netzwerk Nachbarschaftsinformationen in verschiedenen Graphendatensätzen priorisiert. Unsere Analyse der gelernten Architekturen zeigt, dass die Nachbarschaftsmischung je nach Datensatz variiert.