Reiner Nachrichtenversand kann die Anzahl gemeinsamer Nachbarn für die Linkvorhersage schätzen

Nachrichtenübertragungs-Neuronale Netze (MPNNs) sind zum {\em de facto} Standard in der Graphenrepräsentationslernung geworden. Bei der Link-Vorhersage stoßen sie jedoch häufig an ihre Grenzen und werden von einfachen Heuristiken wie dem Gemeinsamen Nachbarn (Common Neighbor, CN) übertroffen. Dieser Unterschied beruht auf einer grundlegenden Beschränkung: Während MPNNs bei der Repräsentation von Knotenleistungen hervorragend abschneiden, erweisen sie sich bei der Kodierung gemeinsamer struktureller Merkmale, die für die Link-Vorhersage entscheidend sind – wie beispielsweise CN – als weniger effektiv. Um diese Lücke zu schließen, vermuten wir, dass reine Nachrichtenübertragung durch Ausnutzung der Orthogonalität der Eingabevektoren tatsächlich gemeinsame strukturelle Merkmale erfassen kann. Insbesondere untersuchen wir die Fähigkeit von MPNNs, CN-Heuristiken zu approximieren. Auf Basis unserer Erkenntnisse präsentieren wir den Message Passing Link Predictor (MPLP), ein neuartiges Modell zur Link-Vorhersage. MPLP nutzt quasi-orthogonale Vektoren, um strukturelle Merkmale auf Link-Ebene zu schätzen, wobei die Komplexität auf Knotenebene bewahrt bleibt. Zudem zeigt unsere Methode, dass die Nutzung der Nachrichtenübertragung zur Erfassung struktureller Merkmale die Ausdruckskraft von MPNNs in gewisser Weise kompensieren kann, allerdings mit dem Kompromiss einer erhöhten Schätzvarianz. Wir führen Experimente auf Benchmark-Datensätzen aus verschiedenen Domänen durch, bei denen unsere Methode konsistent die Baseline-Verfahren übertrifft.