HyperAIHyperAI

Command Palette

Search for a command to run...

Diffusion verbessert das Graph-Lernen

Johannes Gasteiger Stefan Weißenberger Stephan Günnemann

Zusammenfassung

Graphen-Convolution ist das Herzstück der meisten Graph Neural Networks (GNNs) und wird üblicherweise durch Nachrichtenübertragung zwischen direkten (einschrittigen) Nachbarn approximiert. In dieser Arbeit entfernen wir die Einschränkung, nur direkte Nachbarn zu nutzen, indem wir eine leistungsstarke, gleichzeitig räumlich lokalisierte Graphen-Convolution einführen: die Graphen-Diffusions-Convolution (GDC). GDC nutzt verallgemeinerte Graphen-Diffusion, wobei Beispiele hierfür der Wärme-Kern und der personalisierte PageRank sind. Sie lindert das Problem von rauschhaften und oft willkürlich definierten Kanten in realen Graphen. Wir zeigen, dass GDC eng mit spektralbasierten Modellen verwandt ist und somit die Stärken sowohl räumlicher (Nachrichtenübertragung) als auch spektraler Methoden vereint. Wir demonstrieren, dass der Ersatz der Nachrichtenübertragung durch die Graphen-Diffusions-Convolution konsistent zu erheblichen Leistungssteigerungen über eine Vielzahl von Modellen, sowohl auf überwachten als auch unüberwachten Aufgaben, sowie auf verschiedenen Datensätzen führt. Darüber hinaus ist GDC nicht auf GNNs beschränkt, sondern kann nahtlos mit jedem graphbasierten Modell oder Algorithmus (z. B. spektrale Clustering-Verfahren) kombiniert werden, ohne dass Änderungen an letzterem erforderlich sind oder sich dessen Rechenkomplexität verändert. Unsere Implementierung ist online verfügbar.


KI mit KI entwickeln

Von der Idee bis zum Launch – beschleunigen Sie Ihre KI-Entwicklung mit kostenlosem KI-Co-Coding, sofort einsatzbereiter Umgebung und bestem GPU-Preis.

KI-gestütztes kollaboratives Programmieren
Sofort einsatzbereite GPUs
Die besten Preise

HyperAI Newsletters

Abonnieren Sie unsere neuesten Updates
Wir werden die neuesten Updates der Woche in Ihren Posteingang liefern um neun Uhr jeden Montagmorgen
Unterstützt von MailChimp