HyperAIHyperAI

Command Palette

Search for a command to run...

BERTをテキスト分類に微調整する方法

Chi Sun; Xipeng Qiu; Yige Xu; Xuanjing Huang

概要

言語モデルの事前学習が普遍的な言語表現を学ぶ上で有用であることが証明されています。最先端の言語モデル事前学習モデルであるBERT(Bidirectional Encoder Representations from Transformers)は、多くの言語理解タスクで驚異的な結果を達成しています。本論文では、テキスト分類タスクにおけるBERTの異なる微調整方法について詳細な実験を行い、BERTの微調整に関する一般的な解決策を提供します。最終的に、提案された解決策は8つの広く研究されているテキスト分類データセットにおいて新しい最先端の結果を得ています。


AIでAIを構築

アイデアからローンチまで — 無料のAIコーディング支援、すぐに使える環境、最高のGPU価格でAI開発を加速。

AI コーディング補助
すぐに使える GPU
最適な料金体系

HyperAI Newsletters

最新情報を購読する
北京時間 毎週月曜日の午前9時 に、その週の最新情報をメールでお届けします
メール配信サービスは MailChimp によって提供されています