HyperAIHyperAI
vor 16 Tagen

Ein Vorschlag eines mehrschichtigen Perzeptrons mit Graph-Gating-Einheit für die Graph-Darstellungslernung und deren Anwendung auf einen Ersatzmodell für FEM

{Okuda Hiroshi, Nakai Yu}
Ein Vorschlag eines mehrschichtigen Perzeptrons mit Graph-Gating-Einheit für die Graph-Darstellungslernung und deren Anwendung auf einen Ersatzmodell für FEM
Abstract

GNNs sind neuronale Netze zur Repräsentationslernung graphenstrukturierter Daten, wobei die meisten durch Stapelung von graphenkonvolutionellen Schichten aufgebaut sind. Da das Stapeln von n Schichten äquivalent zur Propagation von Informationen aus n-Hop-Nachbarn ist, erfordern GNNs eine ausreichend große Anzahl an Schichten, um große Graphen zu lernen. Allerdings neigen sie aufgrund des sogenannten Over-Smoothing-Problems dazu, die Modellleistung zu verschlechtern. In dieser Arbeit stelle ich ein neuartiges GNN-Modell vor, das durch die Stapelung von feedforward-Neural-Netzen mit Gating-Strukturen unter Verwendung von GCNs aufgebaut ist, um das Over-Smoothing-Problem zu lösen und somit die Schwierigkeit zu überwinden, große Graphen zu lernen. Die experimentellen Ergebnisse zeigten, dass die vorgeschlagene Methode die Vorhersagegenauigkeit bis zu 20 Schichten monoton verbesserte, ohne Over-Smoothing zu verursachen, während die herkömmliche Methode bereits zwischen 4 und 8 Schichten dazu führte. In zwei Experimenten an großen Graphen – dem PPI-Datensatz, einem Standardbenchmark für induktive Knotenklassifikation, sowie der Anwendung als Surrogatmodell für Finite-Elemente-Methoden – erzielte das vorgeschlagene Verfahren die höchste Genauigkeit im Vergleich zu bestehenden Methoden, insbesondere eine state-of-the-art-Genauigkeit von 99,71 % auf dem PPI-Datensatz.

Ein Vorschlag eines mehrschichtigen Perzeptrons mit Graph-Gating-Einheit für die Graph-Darstellungslernung und deren Anwendung auf einen Ersatzmodell für FEM | Neueste Forschungsarbeiten | HyperAI