HyperAIHyperAI

Command Palette

Search for a command to run...

ALBERT: Ein vereinfachtes BERT für das selbstüberwachte Lernen von Sprachrepräsentationen

Zhenzhong Lan Mingda Chen Sebastian Goodman Kevin Gimpel Piyush Sharma Radu Soricut

Zusammenfassung

Die Erhöhung der Modellgröße bei der Vortrainung natürlichsprachlicher Repräsentationen führt oft zu einer verbesserten Leistung bei nachfolgenden Aufgaben. Allerdings wird ab einem bestimmten Punkt eine weitere Vergrößerung des Modells aufgrund von Speicherbeschränkungen von GPUs/TPUs und längeren Trainingszeiten schwieriger. Um diese Probleme zu lösen, stellen wir zwei Parameterreduktionstechniken vor, die den Speicherverbrauch senken und die Trainingsgeschwindigkeit von BERT erhöhen. Umfassende empirische Beweise zeigen, dass unsere vorgeschlagenen Methoden zu Modellen führen, die sich im Vergleich zum ursprünglichen BERT viel besser skalieren. Wir verwenden außerdem einen selbstüberwachten Verlust, der sich auf das Modellieren der Kohärenz zwischen Sätzen konzentriert, und zeigen, dass dies konsistent den nachfolgenden Aufgaben mit mehrsätzigen Eingaben hilft. Als Ergebnis erreicht unser bestes Modell neue Standarte in den Benchmarks GLUE, RACE und SQuAD (Squad), obwohl es weniger Parameter als BERT-Large hat. Der Code und die vortrainierten Modelle sind unter https://github.com/google-research/ALBERT verfügbar.


KI mit KI entwickeln

Von der Idee bis zum Launch – beschleunigen Sie Ihre KI-Entwicklung mit kostenlosem KI-Co-Coding, sofort einsatzbereiter Umgebung und bestem GPU-Preis.

KI-gestütztes kollaboratives Programmieren
Sofort einsatzbereite GPUs
Die besten Preise

HyperAI Newsletters

Abonnieren Sie unsere neuesten Updates
Wir werden die neuesten Updates der Woche in Ihren Posteingang liefern um neun Uhr jeden Montagmorgen
Unterstützt von MailChimp