HyperAIHyperAI
vor 2 Monaten

Text2NKG: Feinmaschige N-stellige Relationsextraktion für die Konstruktion von N-stelligen Wissensgraphen

Haoran Luo; Haihong E; Yuhao Yang; Tianyu Yao; Yikai Guo; Zichen Tang; Wentai Zhang; Kaiyang Wan; Shiyao Peng; Meina Song; Wei Lin; Yifan Zhu; Luu Anh Tuan
Text2NKG: Feinmaschige N-stellige Relationsextraktion für die Konstruktion von N-stelligen Wissensgraphen
Abstract

Über die traditionellen binären Relationen hinaus bestehen n-stellige relationale Wissensgraphen (NKGs) aus n-stelligen relationalen Fakten, die mehr als zwei Entitäten enthalten und näher an realweltlichen Fakten mit breiteren Anwendungen sind. Die Konstruktion von NKGs bleibt jedoch auf einer grobkörnigen Ebene, die stets in einem einzelnen Schema erfolgt und dabei die Reihenfolge und variablen Stelligkeiten der Entitäten außer Acht lässt. Um diese Einschränkungen zu beheben, schlagen wir Text2NKG vor, einen neuen feinkörnigen Rahmen für die Extraktion n-stelliger Relationen zur Konstruktion n-stelliger relationaler Wissensgraphen. Wir führen einen Ansatz zur Klassifikation von Span-Tupeln mit heterogen geordnetem Zusammenführen und Ausgabe-Zusammenführen ein, um feinkörnige Extraktion n-stelliger Relationen bei unterschiedlichen Stelligkeiten zu erreichen. Darüber hinaus unterstützt Text2NKG vier typische NKG-Schemata: hyper-relationales Schema, ereignisbasiertes Schema, rollenbasiertes Schema und hypergraph-basiertes Schema, wobei es eine hohe Flexibilität und Praktikabilität bietet. Die experimentellen Ergebnisse zeigen, dass Text2NKG den Stand der Technik in Bezug auf F1-Werte im Benchmark für feinkörnige Extraktion n-stelliger Relationen erreicht. Unser Code und unsere Datensätze sind öffentlich zugänglich.

Text2NKG: Feinmaschige N-stellige Relationsextraktion für die Konstruktion von N-stelligen Wissensgraphen | Neueste Forschungsarbeiten | HyperAI