HyperAIHyperAI
vor 2 Monaten

Diskrete Strukturen für Grapheneuronalnetze lernen

Luca Franceschi; Mathias Niepert; Massimiliano Pontil; Xiao He
Diskrete Strukturen für Grapheneuronalnetze lernen
Abstract

Grapheneuronalnetze (GNNs) sind eine beliebte Klasse von Maschinenlernmodellen, deren wichtigster Vorteil darin besteht, dass sie eine dünn besetzte und diskrete Abhängigkeitsstruktur zwischen Datenpunkten berücksichtigen können. Leider können GNNs nur dann eingesetzt werden, wenn eine solche Graphstruktur verfügbar ist. In der Praxis sind jedoch reale Graphen oft verrauscht und unvollständig oder gar nicht vorhanden. Mit dieser Arbeit schlagen wir vor, die Graphstruktur und die Parameter von Graphkonvolutionnetzen (GCNs) gleichzeitig zu lernen, indem wir ein bilevel-Programm approximativ lösen, das eine diskrete Wahrscheinlichkeitsverteilung auf den Kanten des Graphen lernt. Dies ermöglicht es, GCNs nicht nur in Szenarien anzuwenden, in denen der gegebene Graph unvollständig oder verfälscht ist, sondern auch in solchen, in denen überhaupt kein Graph zur Verfügung steht. Wir führen eine Reihe von Experimenten durch, die das Verhalten der vorgeschlagenen Methode analysieren und zeigen, dass sie vergleichbare Methoden deutlich übertrifft.

Diskrete Strukturen für Grapheneuronalnetze lernen | Neueste Forschungsarbeiten | HyperAI