Merkmalsauswahl: Schlüssel zur Verbesserung der Knotenklassifikation mit Graph Neural Networks
Graphen helfen dabei, die Beziehungen zwischen Entitäten in den Daten zu definieren. Diese Beziehungen, dargestellt durch Kanten, liefern oft zusätzliche Kontextinformationen, die genutzt werden können, um Muster in den Daten zu entdecken. Graph Neural Networks (GNNs) nutzen die induktive Voreingenommenheit der Graphstruktur, um auf verschiedenen Aufgaben zu lernen und vorherzusagen. Die zentrale Operation von GNNs ist der Merkmalsaggregations-Schritt, der über die Nachbarn eines Knotens basierend auf der Struktur des Graphen durchgeführt wird. Neben eigenen Merkmalen erhält jeder Knoten bei jeder Hop-Stufe zusätzliche kombinierte Merkmale von seinen Nachbarn. Diese aggregierten Merkmale helfen dabei, die Ähnlichkeit oder Unterschiedlichkeit der Knoten hinsichtlich der Labels zu definieren und sind für Aufgaben wie die Knotenklassifikation nützlich. In realen Daten korrelieren die Merkmale der Nachbarn bei unterschiedlichen Hop-Entfernungen jedoch möglicherweise nicht mit den Merkmalen des zentralen Knotens. Daher kann eine ungezielte Merkmalsaggregation durch GNNs zu einer Hinzufügung störender Merkmale führen, was die Leistung des Modells verschlechtert. In dieser Arbeit zeigen wir, dass eine selektive Aggregation von Knotenmerkmalen aus verschiedenen Hop-Entfernungen eine bessere Leistung bei der Knotenklassifikationsaufgabe erzielt als die Standardaggregation. Darüber hinaus stellen wir eine Dual-Net GNN-Architektur vor, die aus einem Klassifikationsmodell und einem Selektionsmodell besteht. Das Klassifikationsmodell trainiert auf einer Teilmenge der Eingabemerkmale, um Knotenlabels vorherzusagen, während das Selektionsmodell lernt, die optimale Teilmenge der Eingabemerkmale für das Klassifikationsmodell zu liefern, um die beste Leistung zu erzielen. Beide Modelle werden gemeinsam trainiert, um die beste Teilmenge von Merkmalen zu erlernen, die eine höhere Genauigkeit bei der Vorhersage der Knotenlabels ermöglicht. Anhand umfangreicher Experimente zeigen wir, dass unser vorgeschlagenes Modell sowohl herkömmliche Merkmalsauswahlmethoden als auch state-of-the-art GNN-Modelle mit bemerkenswerten Verbesserungen bis zu 27,8 % übertrifft.