HyperAIHyperAI
vor 15 Tagen

R-GCN: Das R könnte für Random stehen

Vic Degraeve, Gilles Vandewiele, Femke Ongenae, Sofie Van Hoecke
R-GCN: Das R könnte für Random stehen
Abstract

Die Einführung des Relational Graph Convolutional Network (R-GCN) stellte einen Meilenstein im Bereich des Semantic Web dar, da es sich als eine weit zitierte Methode etabliert hat, die die end-to-end-hierarchische Repräsentationslernung auf Wissensgraphen (Knowledge Graphs, KGs) verallgemeinert. R-GCNs generieren Repräsentationen für interessierende Knoten, indem sie wiederholt parameterisierte, relationsspezifische Transformationen ihrer Nachbarn aggregieren. In diesem Artikel argumentieren wir jedoch, dass der zentrale Beitrag des R-GCN in diesem „Message-Passing“-Paradigma liegt, und nicht in den gelernten Gewichten. Dementsprechend führen wir das „Random Relational Graph Convolutional Network“ (RR-GCN) ein, bei dem sämtliche Parameter untrainiert bleiben und somit Knoten-Embeddings durch Aggregation zufällig transformierter zufälliger Repräsentationen aus den Nachbarn erzeugt werden – also ohne jegliche gelernten Parameter. Wir zeigen empirisch, dass RR-GCNs sowohl im Task der Knotenklassifikation als auch im Link-Prädiktions-Setting mit vollständig trainierten R-GCNs konkurrieren können.

R-GCN: Das R könnte für Random stehen | Neueste Forschungsarbeiten | HyperAI