HyperAIHyperAI

Command Palette

Search for a command to run...

Einfache und tiefe Graphenkonvolutionalnetze

Ming Chen; Zhewei Wei; Zengfeng Huang; Bolin Ding; Yaliang Li

Zusammenfassung

Graph Convolutional Networks (GCNs) sind ein leistungsstarker tiefes Lernverfahren für graphstrukturierte Daten. In jüngster Zeit haben GCNs und ihre nachfolgenden Varianten in verschiedenen Anwendungsbereichen auf realen Datensätzen überlegene Leistungen gezeigt. Trotz ihrer Erfolge sind die meisten aktuellen GCN-Modelle flach, aufgrund des {\em Überglättungsproblems} (over-smoothing). In dieser Arbeit untersuchen wir das Problem der Konstruktion und Analyse tiefer Graph Convolutional Networks. Wir schlagen GCNII vor, eine Erweiterung des ursprünglichen GCN-Modells mit zwei einfachen, aber effektiven Techniken: {\em Anfangsresiduum} (Initial residual) und {\em Identitätsabbildung} (Identity mapping). Wir liefern theoretische und empirische Beweise dafür, dass diese beiden Techniken das Überglättungsproblem effektiv lindern. Unsere Experimente zeigen, dass das tiefe GCNII-Modell in verschiedenen halb- und vollüberwachten Aufgaben den Stand der Technik übertreffen kann. Der Quellcode ist unter https://github.com/chennnM/GCNII verfügbar.


KI mit KI entwickeln

Von der Idee bis zum Launch – beschleunigen Sie Ihre KI-Entwicklung mit kostenlosem KI-Co-Coding, sofort einsatzbereiter Umgebung und bestem GPU-Preis.

KI-gestütztes kollaboratives Programmieren
Sofort einsatzbereite GPUs
Die besten Preise

HyperAI Newsletters

Abonnieren Sie unsere neuesten Updates
Wir werden die neuesten Updates der Woche in Ihren Posteingang liefern um neun Uhr jeden Montagmorgen
Unterstützt von MailChimp