Maximierung der Mutual Information in Graph Neural Networks

Eine Vielzahl von Frameworks für Graph-Neuronale Netze (GNNs) zur Repräsentationslernen auf Graphen wurde kürzlich entwickelt. Diese Frameworks basieren auf Aggregations- und Iterationsschemata, um die Repräsentation der Knoten zu lernen. Allerdings wird Information zwischen den Knoten während des Lernprozesses unvermeidbar verloren. Um diesen Informationsverlust zu reduzieren, erweitern wir die GNN-Frameworks durch die Exploration der Aggregation und Iteration im Kontext der gegenseitigen Information. Wir schlagen einen neuen Ansatz vor, das normale Nachbarschaftsfeld in der Aggregation von GNNs zu erweitern, mit dem Ziel, die gegenseitige Information zu maximieren. Auf Basis einer Reihe von Experimenten, die auf mehreren Benchmark-Datensätzen durchgeführt wurden, zeigen wir, dass der vorgeschlagene Ansatz die Standarte der Technik in vier Arten von Graphenaufgaben verbessert, darunter überwachte und halbüberwachte Graphklassifikation, Graphlink-Vorhersage sowie Generierung und Klassifikation von Graphkanten.