HyperAIHyperAI

Command Palette

Search for a command to run...

InfoXLM: Ein informationstheoretisches Framework für die mehrsprachige Vortrainierung von Sprachmodellen

Zewen Chi Li Dong Furu Wei Nan Yang Saksham Singhal Wenhui Wang Xia Song Xian-Ling Mao Heyan Huang Ming Zhou

Zusammenfassung

In dieser Arbeit präsentieren wir einen informationstheoretischen Rahmen, der die Vortrainierung mehrsprachiger Sprachmodelle als Maximierung der gegenseitigen Information zwischen mehrsprachigen, mehrgranularen Texten formuliert. Diese einheitliche Perspektive ermöglicht es uns, bestehende Methoden zur Lernung mehrsprachiger Repräsentationen besser zu verstehen. Vor allem inspiriert durch diesen Rahmen schlagen wir eine neue Vortrainierungsaufgabe vor, die auf kontrastivem Lernen basiert. Konkret betrachten wir ein bilingualer Satzpaar als zwei Perspektiven desselben Sinns und fördern, dass ihre kodierten Repräsentationen ähnlicher sind als die von negativen Beispielen. Durch die gleichzeitige Nutzung monolingualer und paralleler Korpora trainieren wir die Vorläuferaufgaben gemeinsam, um die Übertragbarkeit mehrsprachiger Vortrainierter Modelle zu verbessern. Experimentelle Ergebnisse auf mehreren Benchmarks zeigen, dass unsere Methode erheblich bessere Leistung erzielt. Der Quellcode und die vortrainierten Modelle sind unter https://aka.ms/infoxlm verfügbar.


KI mit KI entwickeln

Von der Idee bis zum Launch – beschleunigen Sie Ihre KI-Entwicklung mit kostenlosem KI-Co-Coding, sofort einsatzbereiter Umgebung und bestem GPU-Preis.

KI-gestütztes kollaboratives Programmieren
Sofort einsatzbereite GPUs
Die besten Preise

HyperAI Newsletters

Abonnieren Sie unsere neuesten Updates
Wir werden die neuesten Updates der Woche in Ihren Posteingang liefern um neun Uhr jeden Montagmorgen
Unterstützt von MailChimp
InfoXLM: Ein informationstheoretisches Framework für die mehrsprachige Vortrainierung von Sprachmodellen | Paper | HyperAI