HyperAIHyperAI

Command Palette

Search for a command to run...

SenseBERT: Einige Bedeutung in BERT bringen

Yoav Levine Barak Lenz Or Dagan Ori Ram Dan Padnos Or Sharir Shai Shalev-Shwartz Amnon Shashua Yoav Shoham

Zusammenfassung

Die Fähigkeit, aus großen nicht annotierten Korpora zu lernen, hat es neuronalen Sprachmodellen ermöglicht, die Grenzen im Bereich der natürlichen Sprachverarbeitung weiter vorzuschieben. Bestehende Selbstüberwachungstechniken operieren jedoch auf der Ebene der Wortformen, die als Ersatz für den zugrunde liegenden semantischen Inhalt dienen. In dieser Arbeit wird eine Methode vorgeschlagen, um schwache Überwachung direkt auf der Ebene der Wortsinne anzuwenden. Unser Modell, SenseBERT genannt, wird prätrainiert, um nicht nur die maskierten Wörter zuvorzusagen, sondern auch ihre WordNet-Supersinne (WordNet supersenses). Dadurch erhalten wir ein lexikalisch-semantisches Sprachmodell ohne die Verwendung menschlicher Annotationen. SenseBERT erzielt eine erheblich verbesserte lexikale Verständigung, wie wir durch Experimente zur SemEval-Wortsinndiskambiguierung und durch das Erreichen eines Standes der Kunst im Kontext-Wort-Aufgabe (Word in Context task) zeigen.


KI mit KI entwickeln

Von der Idee bis zum Launch – beschleunigen Sie Ihre KI-Entwicklung mit kostenlosem KI-Co-Coding, sofort einsatzbereiter Umgebung und bestem GPU-Preis.

KI-gestütztes kollaboratives Programmieren
Sofort einsatzbereite GPUs
Die besten Preise

HyperAI Newsletters

Abonnieren Sie unsere neuesten Updates
Wir werden die neuesten Updates der Woche in Ihren Posteingang liefern um neun Uhr jeden Montagmorgen
Unterstützt von MailChimp
SenseBERT: Einige Bedeutung in BERT bringen | Paper | HyperAI