HyperAIHyperAI

Command Palette

Search for a command to run...

Pre-Trainierte Modelle für die Chinesische Natürliche Sprachverarbeitung Revisited

Yiming Cui Wanxiang Che Ting Liu Bing Qin Shijin Wang Guoping Hu

Zusammenfassung

Bidirektionale Encoder-Repräsentationen von Transformers (BERT) haben erstaunliche Verbesserungen bei verschiedenen NLP-Aufgaben gezeigt, und nachfolgende Varianten wurden vorgeschlagen, um die Leistung der vortrainierten Sprachmodelle weiter zu verbessern. In dieser Arbeit untersuchen wir die vortrainierten chinesischen Sprachmodelle, um ihre Effektivität in einer nicht-englischen Sprache zu prüfen, und stellen eine Serie von vortrainierten chinesischen Sprachmodellen der Community zur Verfügung. Zudem schlagen wir ein einfaches, aber effektives Modell namens MacBERT vor, das RoBERTa in mehreren Aspekten verbessert, insbesondere durch die Maskierungsstrategie, die MLM als Korrektur (Mac) verwendet. Wir führten umfangreiche Experimente an acht chinesischen NLP-Aufgaben durch, um sowohl die bestehenden als auch das vorgeschlagene MacBERT-Modell zu überprüfen. Die experimentellen Ergebnisse zeigen, dass MacBERT auf vielen NLP-Aufgaben den aktuellen Stand der Technik erreichen kann. Darüber hinaus diskutieren wir detaillierte Analysen mit mehreren Erkenntnissen, die zukünftige Forschung unterstützen können. Ressourcen verfügbar: https://github.com/ymcui/MacBERT


KI mit KI entwickeln

Von der Idee bis zum Launch – beschleunigen Sie Ihre KI-Entwicklung mit kostenlosem KI-Co-Coding, sofort einsatzbereiter Umgebung und bestem GPU-Preis.

KI-gestütztes kollaboratives Programmieren
Sofort einsatzbereite GPUs
Die besten Preise

HyperAI Newsletters

Abonnieren Sie unsere neuesten Updates
Wir werden die neuesten Updates der Woche in Ihren Posteingang liefern um neun Uhr jeden Montagmorgen
Unterstützt von MailChimp