HyperAIHyperAI

Command Palette

Search for a command to run...

Wie man BERT für die Textklassifizierung feinjustiert?

Chi Sun; Xipeng Qiu; Yige Xu; Xuanjing Huang

Zusammenfassung

Die Vortrainierung von Sprachmodellen hat sich als nützlich erwiesen, um universelle Sprachrepräsentationen zu erlernen. Als ein zustandsbezogenes Modell zur Vortrainierung von Sprachmodellen hat BERT (Bidirectional Encoder Representations from Transformers) in vielen Sprachverstehensaufgaben erstaunliche Ergebnisse erzielt. In dieser Arbeit führen wir umfassende Experimente durch, um verschiedene Feinabstimmungsmethoden von BERT für die Textklassifizierung zu untersuchen und eine allgemeine Lösung für die Feinabstimmung von BERT bereitzustellen. Schließlich erreicht die vorgeschlagene Lösung neue Stand der Technik-Ergebnisse auf acht weit verbreiteten Textklassifikationsdatensätzen.


KI mit KI entwickeln

Von der Idee bis zum Launch – beschleunigen Sie Ihre KI-Entwicklung mit kostenlosem KI-Co-Coding, sofort einsatzbereiter Umgebung und bestem GPU-Preis.

KI-gestütztes kollaboratives Programmieren
Sofort einsatzbereite GPUs
Die besten Preise

HyperAI Newsletters

Abonnieren Sie unsere neuesten Updates
Wir werden die neuesten Updates der Woche in Ihren Posteingang liefern um neun Uhr jeden Montagmorgen
Unterstützt von MailChimp
Wie man BERT für die Textklassifizierung feinjustiert? | Paper | HyperAI