HyperAIHyperAI

Command Palette

Search for a command to run...

Cloze-getriebene Vortraining von Selbst-Aufmerksamkeitsnetzwerken

Alexei Baevski; Sergey Edunov; Yinhan Liu; Luke Zettlemoyer; Michael Auli

Zusammenfassung

Wir präsentieren einen neuen Ansatz zur Vortrainierung eines bidirektionalen Transformer-Modells, der erhebliche Leistungsverbesserungen bei einer Vielzahl von Sprachverarbeitungsaufgaben bietet. Unser Modell löst eine cloze-artige Wiederherstellungsaufgabe für Wörter, bei der jedes Wort entfernt wird und anhand des restlichen Textes vorhergesagt werden muss. Experimente zeigen erhebliche Leistungssteigerungen auf dem GLUE-Benchmark sowie neue Stand der Technik-Ergebnisse (state of the art) in der Named Entity Recognition (NER) und im Konstituentenparsen, konsistent mit dem gleichzeitig eingeführten BERT-Modell. Wir führen außerdem eine detaillierte Analyse verschiedener Faktoren durch, die zu effektiver Vortrainierung beitragen, darunter das Datenbereichs- und -volumen, die Modellkapazität und Variationen des cloze-artigen Ziels.


KI mit KI entwickeln

Von der Idee bis zum Launch – beschleunigen Sie Ihre KI-Entwicklung mit kostenlosem KI-Co-Coding, sofort einsatzbereiter Umgebung und bestem GPU-Preis.

KI-gestütztes kollaboratives Programmieren
Sofort einsatzbereite GPUs
Die besten Preise

HyperAI Newsletters

Abonnieren Sie unsere neuesten Updates
Wir werden die neuesten Updates der Woche in Ihren Posteingang liefern um neun Uhr jeden Montagmorgen
Unterstützt von MailChimp