HyperAIHyperAI

Command Palette

Search for a command to run...

XLM-E: Cross-lingual Language Model Pre-training via ELECTRA

Zusammenfassung

In diesem Paper führen wir ELECTRA-artige Aufgaben für die mehrsprachige Sprachmodell-Vortrainierung ein. Konkret stellen wir zwei Vortrainierungsaufgaben vor: multilinguale Ersetzungs-Token-Detektion und Übersetzungs-Ersetzungs-Token-Detektion. Zudem trainieren wir das Modell, benannt XLM-E, sowohl auf multilingualen als auch auf parallelen Korpora vor. Unser Modell erreicht auf verschiedenen Aufgaben zur mehrsprachigen Verständnisleistung eine bessere Leistung als die Basismodelle, wobei der Rechenaufwand erheblich geringer ist. Darüber hinaus zeigt die Analyse, dass XLM-E eine bessere Übertragbarkeit zwischen Sprachen aufweist.


KI mit KI entwickeln

Von der Idee bis zum Launch – beschleunigen Sie Ihre KI-Entwicklung mit kostenlosem KI-Co-Coding, sofort einsatzbereiter Umgebung und bestem GPU-Preis.

KI-gestütztes kollaboratives Programmieren
Sofort einsatzbereite GPUs
Die besten Preise

HyperAI Newsletters

Abonnieren Sie unsere neuesten Updates
Wir werden die neuesten Updates der Woche in Ihren Posteingang liefern um neun Uhr jeden Montagmorgen
Unterstützt von MailChimp
XLM-E: Cross-lingual Language Model Pre-training via ELECTRA | Paper | HyperAI