HyperAIHyperAI

Command Palette

Search for a command to run...

Zur Bedeutung des Volumens von Vortrainingsdaten für kompakte Sprachmodelle

Vincent Micheli Martin d&#39 Hoffschmidt François Fleuret

Zusammenfassung

Neuere Fortschritte in der Sprachmodellierung haben zu rechenintensiven und ressourcenintensiven State-of-the-Art-Modellen geführt. In einem Bemühung um nachhaltige Praktiken untersuchen wir den Einfluss des Volumens der Vortrainingsdaten auf kompakte Sprachmodelle. Mehrere auf BERT basierende Modelle werden auf schrittweise zunehmenden Mengen an französischem Text trainiert. Durch Fine-Tuning am französischen Fragebeantwortungsdatensatz (FQuAD) stellen wir fest, dass bereits mit lediglich 100 MB Text gut performende Modelle erzielt werden können. Zudem zeigen wir, dass eine vorherige, kritisch niedrige Menge an Vortrainingsdaten nicht durch einen intermediären Vortrainings-Schritt auf dem themenspezifischen Korpus signifikante Verbesserungen bringt.


KI mit KI entwickeln

Von der Idee bis zum Launch – beschleunigen Sie Ihre KI-Entwicklung mit kostenlosem KI-Co-Coding, sofort einsatzbereiter Umgebung und bestem GPU-Preis.

KI-gestütztes kollaboratives Programmieren
Sofort einsatzbereite GPUs
Die besten Preise

HyperAI Newsletters

Abonnieren Sie unsere neuesten Updates
Wir werden die neuesten Updates der Woche in Ihren Posteingang liefern um neun Uhr jeden Montagmorgen
Unterstützt von MailChimp
Zur Bedeutung des Volumens von Vortrainingsdaten für kompakte Sprachmodelle | Paper | HyperAI