Sheaf Neural Networks mit Connection Laplacian

Ein Sheaf Neural Network (SNN) ist eine Art von Graph Neural Network (GNN), das auf einem Sheaf operiert – einem mathematischen Objekt, das einem Graphen Vektorräume an seinen Knoten und Kanten sowie lineare Abbildungen zwischen diesen Räumen zuweist. SNNs haben sich durch nützliche theoretische Eigenschaften ausgezeichnet, die helfen, Probleme wie Heterophilie und Überglättung (over-smoothing) zu bewältigen. Eine zentrale Herausforderung dieser Modelle liegt darin, einen geeigneten Sheaf für die jeweilige Aufgabe zu finden. Bisher wurden zwei diametral entgegengesetzte Ansätze vorgeschlagen: die manuelle Konstruktion des Sheafs auf Basis fachspezifischen Wissens und das end-to-end-Lernen des Sheafs mittels gradientenbasierter Methoden. Allerdings ist fachliches Wissen oft unzureichend, während das Lernen des Sheafs zu Überanpassung und erheblichem Rechenaufwand führen kann. In dieser Arbeit schlagen wir einen neuartigen Ansatz zur Berechnung von Sheafs vor, der sich von der Riemannschen Geometrie inspirieren lässt: Wir nutzen die Mannigfaltigkeitsannahme, um orthogonalen Abbildungen zu berechnen, die sowohl graphen- als auch mannigfaltigkeitsbewusst sind, wodurch die Tangentialräume benachbarter Datenpunkte optimal ausgerichtet werden. Wir zeigen, dass dieser Ansatz im Vergleich zu früheren SNN-Modellen vielversprechende Ergebnisse erzielt, jedoch mit deutlich geringerem Rechenaufwand. Insgesamt stellt diese Arbeit eine interessante Verbindung zwischen algebraischer Topologie und differenzialgeometrischer Theorie her, und wir hoffen, dass sie zukünftige Forschung in dieser Richtung anregen wird.