HyperAIHyperAI

Command Palette

Search for a command to run...

Diffusion-Jump GNNs: Homophilie durch lernbare Metrik-Filter

Ahmed Begga Francisco Escolano Miguel Angel Lozano Edwin R. Hancock

Zusammenfassung

Höherordentliche Graphen-Neuronale Netzwerke (HO-GNNs) wurden entwickelt, um konsistente latente Räume im heterophilen Regime zu inferieren, bei dem die Label-Verteilung nicht mit der Graphstruktur korreliert ist. Die meisten bestehenden HO-GNNs basieren jedoch auf Hop-Operationen, d. h., sie stützen sich auf Potenzen der Übergangsmatrix. Hierdurch sind diese Architekturen nicht vollständig auf die Klassifizierungsverlustfunktion reagierend, und die erzielten strukturellen Filter weisen statische Träger auf. Mit anderen Worten: Weder die Träger noch die Koeffizienten der Filter können in diesen Netzwerken gelernt werden; stattdessen sind sie darauf beschränkt, Kombinationen von vorgegebenen Filtern zu lernen. Um diese Probleme anzugehen, schlagen wir Diffusion-jump GNNs vor – eine Methode, die auf asymptotischen Diffusionsdistanzen basiert und auf Sprüngen operiert. Ein Diffusionspumpe generiert paarweise Distanzen, deren Projektionen sowohl den Träger als auch die Koeffizienten jedes strukturellen Filters bestimmen. Diese Filter werden „Sprünge“ genannt, da sie eine breite Skalenpalette erforschen, um Bindungen zwischen verstreuten Knoten mit gleichem Label zu finden. Tatsächlich wird der gesamte Prozess durch den Klassifizierungsverlust gesteuert: sowohl die Sprünge als auch die Diffusionsdistanzen reagieren auf Klassifizierungsfehler (d. h., sie sind lernbar). Die Homophilie – also der Prozess der Lernung stückweise glatter latenter Räume im heterophilen Regime – wird als Dirichlet-Problem formuliert: Die bekannten Labels bestimmen die Randknoten, und die Diffusionspumpe sorgt dafür, dass die semi-supervised Gruppierung von einer kanonischen unsupervised Gruppierung minimal abweicht. Dies löst die Aktualisierung sowohl der Diffusionsdistanzen als auch der daraus resultierenden Sprünge aus, um den Klassifizierungsfehler zu minimieren. Die Dirichlet-Formulierung bietet mehrere Vorteile: Sie ermöglicht die Definition einer strukturellen Heterophilie, einer neuen Maßzahl, die über die einfache Kanten-Heterophilie hinausgeht. Zudem erlaubt sie die Untersuchung von Verbindungen zu (lernbaren) Diffusionsdistanzen, absorbierenden Zufallswanderungen und stochastischen Diffusionsprozessen.


KI mit KI entwickeln

Von der Idee bis zum Launch – beschleunigen Sie Ihre KI-Entwicklung mit kostenlosem KI-Co-Coding, sofort einsatzbereiter Umgebung und bestem GPU-Preis.

KI-gestütztes kollaboratives Programmieren
Sofort einsatzbereite GPUs
Die besten Preise

HyperAI Newsletters

Abonnieren Sie unsere neuesten Updates
Wir werden die neuesten Updates der Woche in Ihren Posteingang liefern um neun Uhr jeden Montagmorgen
Unterstützt von MailChimp
Diffusion-Jump GNNs: Homophilie durch lernbare Metrik-Filter | Paper | HyperAI