HyperAIHyperAI

Command Palette

Search for a command to run...

HittER: Hierarchische Transformers für Wissensgraphen-Embeddings

Sanxing Chen Xiaodong Liu Jianfeng Gao Jian Jiao Ruofei Zhang Yangfeng Ji

Zusammenfassung

Diese Arbeit untersucht das anspruchsvolle Problem der Lernung von Repräsentationen von Entitäten und Relationen in einem komplexen multi-relationalem Wissensgraphen. Wir stellen HittER, ein hierarchisches Transformer-Modell, vor, das gleichzeitig die Komposition von Entität-Relationen und die relationale Kontextualisierung auf Basis der Nachbarschaft einer Quellentität lernt. Unser vorgeschlagenes Modell besteht aus zwei unterschiedlichen Transformer-Blöcken: Der untere Block extrahiert Merkmale jedes Entität-Relation-Paares in der lokalen Nachbarschaft der Quellentität, während der obere Block die relationale Information aus den Ausgaben des unteren Blocks aggregiert. Zusätzlich entwickeln wir eine maskierte Entitätsvorhersage-Aufgabe, um das Informationsgewicht zwischen dem relationalen Kontext und der Quellentität selbst auszugleichen. Experimentelle Ergebnisse zeigen, dass HittER neue SOTA-Ergebnisse auf mehreren Link-Prediction-Datensätzen erzielt. Zudem schlagen wir eine einfache Methode vor, HittER in BERT zu integrieren, und demonstrieren deren Wirksamkeit auf zwei Freebase-Factoid-Fragebeantwortungs-Datensätzen.


KI mit KI entwickeln

Von der Idee bis zum Launch – beschleunigen Sie Ihre KI-Entwicklung mit kostenlosem KI-Co-Coding, sofort einsatzbereiter Umgebung und bestem GPU-Preis.

KI-gestütztes kollaboratives Programmieren
Sofort einsatzbereite GPUs
Die besten Preise

HyperAI Newsletters

Abonnieren Sie unsere neuesten Updates
Wir werden die neuesten Updates der Woche in Ihren Posteingang liefern um neun Uhr jeden Montagmorgen
Unterstützt von MailChimp
HittER: Hierarchische Transformers für Wissensgraphen-Embeddings | Paper | HyperAI