HyperAIHyperAI
vor 15 Tagen

Diffusion-Jump GNNs: Homophilie durch lernbare Metrik-Filter

Ahmed Begga, Francisco Escolano, Miguel Angel Lozano, Edwin R. Hancock
Diffusion-Jump GNNs: Homophilie durch lernbare Metrik-Filter
Abstract

Höherordentliche Graphen-Neuronale Netzwerke (HO-GNNs) wurden entwickelt, um konsistente latente Räume im heterophilen Regime zu inferieren, bei dem die Label-Verteilung nicht mit der Graphstruktur korreliert ist. Die meisten bestehenden HO-GNNs basieren jedoch auf Hop-Operationen, d. h., sie stützen sich auf Potenzen der Übergangsmatrix. Hierdurch sind diese Architekturen nicht vollständig auf die Klassifizierungsverlustfunktion reagierend, und die erzielten strukturellen Filter weisen statische Träger auf. Mit anderen Worten: Weder die Träger noch die Koeffizienten der Filter können in diesen Netzwerken gelernt werden; stattdessen sind sie darauf beschränkt, Kombinationen von vorgegebenen Filtern zu lernen. Um diese Probleme anzugehen, schlagen wir Diffusion-jump GNNs vor – eine Methode, die auf asymptotischen Diffusionsdistanzen basiert und auf Sprüngen operiert. Ein Diffusionspumpe generiert paarweise Distanzen, deren Projektionen sowohl den Träger als auch die Koeffizienten jedes strukturellen Filters bestimmen. Diese Filter werden „Sprünge“ genannt, da sie eine breite Skalenpalette erforschen, um Bindungen zwischen verstreuten Knoten mit gleichem Label zu finden. Tatsächlich wird der gesamte Prozess durch den Klassifizierungsverlust gesteuert: sowohl die Sprünge als auch die Diffusionsdistanzen reagieren auf Klassifizierungsfehler (d. h., sie sind lernbar). Die Homophilie – also der Prozess der Lernung stückweise glatter latenter Räume im heterophilen Regime – wird als Dirichlet-Problem formuliert: Die bekannten Labels bestimmen die Randknoten, und die Diffusionspumpe sorgt dafür, dass die semi-supervised Gruppierung von einer kanonischen unsupervised Gruppierung minimal abweicht. Dies löst die Aktualisierung sowohl der Diffusionsdistanzen als auch der daraus resultierenden Sprünge aus, um den Klassifizierungsfehler zu minimieren. Die Dirichlet-Formulierung bietet mehrere Vorteile: Sie ermöglicht die Definition einer strukturellen Heterophilie, einer neuen Maßzahl, die über die einfache Kanten-Heterophilie hinausgeht. Zudem erlaubt sie die Untersuchung von Verbindungen zu (lernbaren) Diffusionsdistanzen, absorbierenden Zufallswanderungen und stochastischen Diffusionsprozessen.

Diffusion-Jump GNNs: Homophilie durch lernbare Metrik-Filter | Neueste Forschungsarbeiten | HyperAI