HyperAIHyperAI

Command Palette

Search for a command to run...

ERNIE: Erweiterte Sprachrepräsentation durch informative Entitäten

Zhengyan Zhang; Xu Han; Zhiyuan Liu; Xin Jiang; Maosong Sun; Qun Liu

Zusammenfassung

Neuronale Sprachrepräsentationsmodelle wie BERT, die auf großen Korpora vortrainiert wurden, können reichhaltige semantische Muster aus unstrukturiertem Text gut erfassen und für die Verbesserung der Leistung verschiedener NLP-Aufgaben feinjustiert werden. Allerdings berücksichtigen die bestehenden vortrainierten Sprachmodelle selten die Einbindung von Wissensgraphen (KGs), die reichhaltige strukturierte Wissensfakten für ein besseres Sprachverständnis bereitstellen können. Wir argumentieren, dass informative Entitäten in Wissensgraphen die Sprachrepräsentation durch externe Wissen erweitern können. In dieser Arbeit nutzen wir sowohl große textuelle Korpora als auch Wissensgraphen, um ein erweitertes Sprachrepräsentationsmodell (ERNIE) zu trainieren, das gleichzeitig lexikalische, syntaktische und wissensbasierte Informationen optimal ausnutzt. Die experimentellen Ergebnisse zeigen, dass ERNIE bei verschiedenen wissensbasierten Aufgaben erhebliche Verbesserungen erreicht und gleichzeitig mit dem aktuellen Top-Modell BERT bei anderen gängigen NLP-Aufgaben vergleichbar ist. Der Quellcode dieses Artikels kann unter https://github.com/thunlp/ERNIE abgerufen werden.


KI mit KI entwickeln

Von der Idee bis zum Launch – beschleunigen Sie Ihre KI-Entwicklung mit kostenlosem KI-Co-Coding, sofort einsatzbereiter Umgebung und bestem GPU-Preis.

KI-gestütztes kollaboratives Programmieren
Sofort einsatzbereite GPUs
Die besten Preise

HyperAI Newsletters

Abonnieren Sie unsere neuesten Updates
Wir werden die neuesten Updates der Woche in Ihren Posteingang liefern um neun Uhr jeden Montagmorgen
Unterstützt von MailChimp