DropGNN: Zufällige Dropouts erhöhen die Ausdruckskraft von Graph Neural Networks

Diese Arbeit untersucht Dropout-Graphneuronale Netze (DropGNNs), einen neuen Ansatz, der darauf abzielt, die Einschränkungen herkömmlicher GNN-Frameworks zu überwinden. Bei DropGNNs führen wir mehrere Durchläufe eines GNN auf dem Eingabegraphen durch, wobei in jedem Durchlauf einige Knoten zufällig und unabhängig voneinander entfernt werden. Anschließend kombinieren wir die Ergebnisse dieser Durchläufe, um das endgültige Ergebnis zu erzielen. Wir beweisen, dass DropGNNs verschiedene Graph-Nachbarschaften unterscheiden können, die durch Nachrichtenübertragungs-GNNs nicht separiert werden können. Wir leiten theoretische Schranken für die Anzahl der Durchläufe ab, die erforderlich sind, um eine zuverlässige Verteilung der Dropout-Operationen sicherzustellen, und beweisen mehrere Eigenschaften hinsichtlich der Ausdruckskraft und Grenzen von DropGNNs. Experimentell validieren wir unsere theoretischen Erkenntnisse zur Ausdruckskraft. Zudem zeigen wir, dass DropGNNs auf etablierten GNN-Benchmarks wettbewerbsfähig abschneiden.