HyperAIHyperAI

Command Palette

Search for a command to run...

Multilinguale Wissensgraphen-Vervollständigung mit gemeinsamer Relationen- und Entitätsausrichtung

Harkanwar Singh Prachi Jain Mausam Soumen Chakrabarti

Zusammenfassung

Wissensgraph-Vervollständigung (Knowledge Graph Completion, KGC) zielt darauf ab, fehlende Fakten in unvollständigen Wissensgraphen vorherzusagen. Fast alle bestehenden KGC-Forschungsarbeiten sind auf jeweils einen einzigen Wissensgraphen und eine einzige Sprache beschränkt. In der Praxis pflegen jedoch Sprecher verschiedener Sprachen jeweils getrennte Wissensgraphen in ihrer eigenen Sprache, und keiner dieser Graphen wird als vollständig erwartet. Zudem weisen gemeinsame Entitäten oder Relationen in diesen Graphen unterschiedliche Oberflächenformen und IDs auf, was zu einer ID-Proliferation führt. Die Aufgaben der Entitätsausrichtung (Entity Alignment, EA) und der Relationsausrichtung (Relation Alignment, RA) adressieren dieses Problem, indem sie Paare von Entitäts- (bzw. Relations-)IDs in verschiedenen Wissensgraphen identifizieren, die dieselbe Entität (bzw. Relation) repräsentieren. Diese Ausrichtung kann zudem die Vorhersage fehlender Fakten unterstützen, da Wissen aus einem Graphen zur Vervollständigung eines anderen Graphen beitragen kann. Umgekehrt können hochzuverlässige Vorhersagen aus der KGC-Aufgabe wertvolle Informationen für die Ausrichtungsaufgaben liefern. In Anbetracht dessen untersuchen wir die neuartige Aufgabe des gemeinsamen Trainings von multilingualen KGC-, EA- und RA-Modellen. Wir stellen ALIGNKGC vor, das einige Seed-Ausrichtungen nutzt, um gleichzeitig alle drei Verlustfunktionen – KGC, EA und RA – zu optimieren. Ein zentraler Bestandteil von ALIGNKGC ist ein auf Embeddings basierender, weicher Ansatz asymmetrischer Überlappung, der auf den (Subjekt, Objekt)-Mengensignaturen von Relationen definiert ist und dabei hilft, Relationen besser vorherzusagen, die einer anderen Relation äquivalent sind oder aus ihr impliziert werden. Umfangreiche Experimente mit DBpedia in fünf Sprachen belegen die Vorteile des gemeinsamen Trainings für alle drei Aufgaben. ALIGNKGC erreicht gegenüber einem starken, state-of-the-art-Modell für einzelne KGC-Graphen eine Verbesserung von 10 bis 32 MRR pro monolingualen Wissensgraph. Zudem erzielt ALIGNKGC signifikante Verbesserungen bei den EA- und RA-Aufgaben im Vergleich zu einem einfachen KGC-Modell, das auf einem kombinierten Wissensgraphen ohne vorherige Ausrichtung basiert – was die Bedeutung des gemeinsamen Trainings für diese Aufgaben unterstreicht.


KI mit KI entwickeln

Von der Idee bis zum Launch – beschleunigen Sie Ihre KI-Entwicklung mit kostenlosem KI-Co-Coding, sofort einsatzbereiter Umgebung und bestem GPU-Preis.

KI-gestütztes kollaboratives Programmieren
Sofort einsatzbereite GPUs
Die besten Preise

HyperAI Newsletters

Abonnieren Sie unsere neuesten Updates
Wir werden die neuesten Updates der Woche in Ihren Posteingang liefern um neun Uhr jeden Montagmorgen
Unterstützt von MailChimp