HyperAIHyperAI
vor 16 Tagen

HAHE: Hierarchische Aufmerksamkeit für hyper-relationale Wissensgraphen auf globaler und lokaler Ebene

Haoran Luo, Haihong E, Yuhao Yang, Yikai Guo, Mingzhi Sun, Tianyu Yao, Zichen Tang, Kaiyang Wan, Meina Song, Wei Lin
HAHE: Hierarchische Aufmerksamkeit für hyper-relationale Wissensgraphen auf globaler und lokaler Ebene
Abstract

Die Vorhersage von Verbindungen in hyperrelationalen Wissensgraphen (HKG) ist eine lohnenswerte Forschungsrichtung. HKG bestehen aus hyperrelationalen Fakten (H-Facts), die sich aus einem Haupttripel und mehreren zusätzlichen Attribut-Wert-Qualifikatoren zusammensetzen und Informationen umfassend darstellen können. Die interne Struktur von HKG lässt sich global als hypergraphenbasierte Darstellung und lokal als semantische Sequenzdarstellung modellieren. Allerdings berücksichtigen bestehende Forschungsansätze selten gleichzeitig die graphische und sequenzielle Struktur von HKG, was die Repräsentationsfähigkeit von HKG einschränkt. Um diese Limitierung zu überwinden, schlagen wir ein neuartiges hierarchisches Aufmerksamkeitsmodell für die HKG-Embedding (HAHE) vor, das sowohl eine globale als auch eine lokale Aufmerksamkeit integriert. Die globale Aufmerksamkeit modelliert die graphische Struktur von HKG mithilfe von Hypergraph-Dual-Aufmerksamkeits-Schichten, während die lokale Aufmerksamkeit die sequenzielle Struktur innerhalb von H-Facts mittels heterogener Selbst-Aufmerksamkeits-Schichten erlernt. Experimentelle Ergebnisse zeigen, dass HAHE eine state-of-the-art-Leistung bei der Verbindungsvorhersage auf Standard-Datensätzen für HKG erzielt. Zudem löst HAHE erstmals das Problem der mehrfachen Positions-Vorhersage in HKG und erhöht so die Anwendbarkeit der Verbindungsvorhersage in HKG. Unser Code ist öffentlich zugänglich.

HAHE: Hierarchische Aufmerksamkeit für hyper-relationale Wissensgraphen auf globaler und lokaler Ebene | Neueste Forschungsarbeiten | HyperAI