HyperAIHyperAI

Command Palette

Search for a command to run...

R-GCN: Das R könnte für Random stehen

Vic Degraeve Gilles Vandewiele Femke Ongenae Sofie Van Hoecke

Zusammenfassung

Die Einführung des Relational Graph Convolutional Network (R-GCN) stellte einen Meilenstein im Bereich des Semantic Web dar, da es sich als eine weit zitierte Methode etabliert hat, die die end-to-end-hierarchische Repräsentationslernung auf Wissensgraphen (Knowledge Graphs, KGs) verallgemeinert. R-GCNs generieren Repräsentationen für interessierende Knoten, indem sie wiederholt parameterisierte, relationsspezifische Transformationen ihrer Nachbarn aggregieren. In diesem Artikel argumentieren wir jedoch, dass der zentrale Beitrag des R-GCN in diesem „Message-Passing“-Paradigma liegt, und nicht in den gelernten Gewichten. Dementsprechend führen wir das „Random Relational Graph Convolutional Network“ (RR-GCN) ein, bei dem sämtliche Parameter untrainiert bleiben und somit Knoten-Embeddings durch Aggregation zufällig transformierter zufälliger Repräsentationen aus den Nachbarn erzeugt werden – also ohne jegliche gelernten Parameter. Wir zeigen empirisch, dass RR-GCNs sowohl im Task der Knotenklassifikation als auch im Link-Prädiktions-Setting mit vollständig trainierten R-GCNs konkurrieren können.


KI mit KI entwickeln

Von der Idee bis zum Launch – beschleunigen Sie Ihre KI-Entwicklung mit kostenlosem KI-Co-Coding, sofort einsatzbereiter Umgebung und bestem GPU-Preis.

KI-gestütztes kollaboratives Programmieren
Sofort einsatzbereite GPUs
Die besten Preise

HyperAI Newsletters

Abonnieren Sie unsere neuesten Updates
Wir werden die neuesten Updates der Woche in Ihren Posteingang liefern um neun Uhr jeden Montagmorgen
Unterstützt von MailChimp