Parametrisierte hyperkomplexe Graph Neural Networks für die Graphklassifikation

Trotz der jüngsten Fortschritte in der Repräsentationslernen in hyperkomplexen (HC) Räumen bleibt dieses Thema im Kontext von Graphen nach wie vor weitgehend unerforscht. Ausgehend von den komplexen und quaternionischen Algebren, die sich in mehreren Kontexten als effektiv für das Repräsentationslernen erwiesen haben und dabei eine inhärente Gewichtsteilung (weight-sharing) Mechanik integrieren, entwickeln wir Graph Neural Networks (GNNs), die die Eigenschaften der hyperkomplexen Merkmalstransformation nutzen. Insbesondere wird in unserer vorgeschlagenen Modellklasse die Multiplikationsregel, die die Algebra selbst definiert, während des Trainings aus den Daten inferiert. Unter Beibehaltung einer festen Modellarchitektur liefern wir empirische Belege dafür, dass unser vorgeschlagener Ansatz eine Regularisierungswirkung aufweist und somit das Risiko von Overfitting verringert. Zudem zeigen wir, dass bei gleichbleibender Modellkapazität unsere Methode die entsprechende reelle GNN-Version übertrifft, was zusätzliche Bestätigung für die erhöhte Ausdruckskraft hyperkomplexer Einbettungen liefert. Schließlich testen wir unsere vorgeschlagene hyperkomplexe GNN an mehreren öffentlichen Benchmark-Datensätzen für Graphen und zeigen, dass unsere Modelle eine state-of-the-art-Leistung erzielen, während sie gleichzeitig einen um 70 % geringeren Speicherverbrauch und deutlich weniger Parameter benötigen. Unsere Implementierungen sind unter https://github.com/bayer-science-for-a-better-life/phc-gnn verfügbar.