Selbst-Aufmerksamkeits-Graph-Pooling

In den letzten Jahren wurden fortschrittliche Methoden zur Anwendung von Deep Learning auf strukturierte Daten wie Graphen vorgeschlagen. Insbesondere haben Studien sich darauf konzentriert, Faltungsneuronale Netze (CNNs) auf Graphendaten zu verallgemeinern, was die Neubestimmung der Faltung und der Downsampling-Operationen (Pooling) für Graphen einschließt. Die Verallgemeinerung der Faltungsoperation auf Graphen wurde als leistungsfähiger erwiesen und wird weit verbreitet eingesetzt. Allerdings ist die Anwendung von Downsampling auf Graphen weiterhin schwierig und bietet Verbesserungspotential. In dieser Arbeit schlagen wir eine Graph-Pooling-Methode vor, die auf Selbst-Aufmerksamkeit basiert. Durch die Verwendung von Graph-Faltung bei der Selbst-Aufmerksamkeit kann unsere Pooling-Methode sowohl Knotenattribute als auch die Graphentopologie berücksichtigen. Um einen fairen Vergleich sicherzustellen, wurden für die existierenden Pooling-Methoden und unsere Methode dieselben Trainingsprozeduren und Modellarchitekturen verwendet. Die experimentellen Ergebnisse zeigen, dass unsere Methode überlegene Leistungen in der Graph-Klassifizierung auf Benchmark-Datensätzen erzielt, wobei eine angemessene Anzahl von Parametern verwendet wird.