HyperAIHyperAI

Command Palette

Search for a command to run...

Diskrete Strukturen für Grapheneuronalnetze lernen

Luca Franceschi Mathias Niepert Massimiliano Pontil Xiao He

Zusammenfassung

Grapheneuronalnetze (GNNs) sind eine beliebte Klasse von Maschinenlernmodellen, deren wichtigster Vorteil darin besteht, dass sie eine dünn besetzte und diskrete Abhängigkeitsstruktur zwischen Datenpunkten berücksichtigen können. Leider können GNNs nur dann eingesetzt werden, wenn eine solche Graphstruktur verfügbar ist. In der Praxis sind jedoch reale Graphen oft verrauscht und unvollständig oder gar nicht vorhanden. Mit dieser Arbeit schlagen wir vor, die Graphstruktur und die Parameter von Graphkonvolutionnetzen (GCNs) gleichzeitig zu lernen, indem wir ein bilevel-Programm approximativ lösen, das eine diskrete Wahrscheinlichkeitsverteilung auf den Kanten des Graphen lernt. Dies ermöglicht es, GCNs nicht nur in Szenarien anzuwenden, in denen der gegebene Graph unvollständig oder verfälscht ist, sondern auch in solchen, in denen überhaupt kein Graph zur Verfügung steht. Wir führen eine Reihe von Experimenten durch, die das Verhalten der vorgeschlagenen Methode analysieren und zeigen, dass sie vergleichbare Methoden deutlich übertrifft.


KI mit KI entwickeln

Von der Idee bis zum Launch – beschleunigen Sie Ihre KI-Entwicklung mit kostenlosem KI-Co-Coding, sofort einsatzbereiter Umgebung und bestem GPU-Preis.

KI-gestütztes kollaboratives Programmieren
Sofort einsatzbereite GPUs
Die besten Preise

HyperAI Newsletters

Abonnieren Sie unsere neuesten Updates
Wir werden die neuesten Updates der Woche in Ihren Posteingang liefern um neun Uhr jeden Montagmorgen
Unterstützt von MailChimp