HyperAIHyperAI
vor 11 Tagen

MEIM: Multi-partition Embedding Interaction jenseits des Blockterm-Formats für effiziente und ausdrucksstarke Link-Prädiktion

Hung Nghiep Tran, Atsuhiro Takasu
MEIM: Multi-partition Embedding Interaction jenseits des Blockterm-Formats für effiziente und ausdrucksstarke Link-Prädiktion
Abstract

Wissensgraph-Embedding zielt darauf ab, fehlende Beziehungen zwischen Entitäten in Wissensgraphen vorherzusagen. Tensor-Zerlegungs-basierte Modelle wie ComplEx bieten ein gutes Gleichgewicht zwischen Effizienz und Ausdruckskraft, was aufgrund der großen Größe realweltbezogener Wissensgraphen entscheidend ist. Das jüngst vorgestellte Multi-Partition Embedding Interaction (MEI)-Modell umfasst diese Ansätze durch Verwendung des Block-Term-Tensor-Formats und bietet eine systematische Lösung für das Effizienz-Ausdruckskraft-Trade-off. Allerdings weist MEI mehrere Nachteile auf, einige davon vererbt von den zugrunde liegenden Tensor-Zerlegungsmodellen. In diesem Artikel behandeln wir diese Nachteile und stellen das Multi-partition Embedding Interaction iMproved beyond block term format (MEIM)-Modell vor, das neben der Multi-Partition-Embedding-Struktur eine unabhängige Kern-Tensor-Struktur zur Erzielung ensemblerischer Effekte und eine weiche Orthogonalität zur Maximalrang-Abbildung integriert. MEIM verbessert die Ausdruckskraft erheblich, bleibt jedoch hoch-effizient und erreicht so eine Überlegenheit gegenüber starken Baseline-Modellen sowie State-of-the-Art-Ergebnisse bei anspruchsvollen Link-Prediction-Benchmarks, selbst bei vergleichsweise kleinen Embedding-Größen. Der Quellcode ist unter https://github.com/tranhungnghiep/MEIM-KGE verfügbar.

MEIM: Multi-partition Embedding Interaction jenseits des Blockterm-Formats für effiziente und ausdrucksstarke Link-Prädiktion | Neueste Forschungsarbeiten | HyperAI