HyperAIHyperAI

Command Palette

Search for a command to run...

Wie man BERT mit einem akademischen Budget trainiert

Peter Izsak Moshe Berchansky Omer Levy

Zusammenfassung

Obwohl große Sprachmodelle im Stil von BERT in der Sprachverarbeitung (NLP) allgegenwärtig sind, gilt deren Vortrainierung als Luxus, den nur wenige gut finanzierte Industrielabore sich leisten können. Wie lässt sich ein solches Modell mit einem bescheideneren Budget trainieren? Wir präsentieren eine Vorgehensweise zur Vortrainierung eines maskierten Sprachmodells innerhalb von 24 Stunden unter Verwendung eines einzigen günstigen Deep-Learning-Servers. Wir zeigen, dass durch eine Kombination aus Software-Optimierungen, strategischen Architekturwahl und Hyperparameter-Tuning Modelle erzeugt werden können, die auf GLUE-Aufgaben mit BERT-base konkurrieren, jedoch nur einen Bruchteil der ursprünglichen Trainingskosten verursachen.


KI mit KI entwickeln

Von der Idee bis zum Launch – beschleunigen Sie Ihre KI-Entwicklung mit kostenlosem KI-Co-Coding, sofort einsatzbereiter Umgebung und bestem GPU-Preis.

KI-gestütztes kollaboratives Programmieren
Sofort einsatzbereite GPUs
Die besten Preise

HyperAI Newsletters

Abonnieren Sie unsere neuesten Updates
Wir werden die neuesten Updates der Woche in Ihren Posteingang liefern um neun Uhr jeden Montagmorgen
Unterstützt von MailChimp
Wie man BERT mit einem akademischen Budget trainiert | Paper | HyperAI