HyperAIHyperAI

Command Palette

Search for a command to run...

Few-Shot学習のための言語モデルの継続的訓練

Zixuan Ke Haowei Lin Yijia Shao Hu Xu Lei Shu Bing Liu

概要

大規模言語モデル(LM)を活用した最近の研究では、多くの自然言語処理(NLP)アプリケーションにおいて優れた性能が達成されている。ラベルなしのドメイン別コーパスを用いてLMを適応または後学習(posttraining)することで、そのドメインにおけるエンドタスクの性能がさらに向上することが示されている。本論文では、過去のスキルを忘却することなく、ラベルなしのドメインコーパスのシーケンスを段階的に用いてLMを継続的に拡張するという問題を提案する。その目的は、これらのドメインにおける少数サンプル(few-shot)エンドタスク学習の性能を向上させることにある。提案するシステムは、筆者らの知る限り、最初の継続的後学習システムであるCPT(Continual PostTraining)と呼ばれる。実験結果により、本手法の有効性が検証された。


AIでAIを構築

アイデアからローンチまで — 無料のAIコーディング支援、すぐに使える環境、最高のGPU価格でAI開発を加速。

AI コーディング補助
すぐに使える GPU
最適な料金体系

HyperAI Newsletters

最新情報を購読する
北京時間 毎週月曜日の午前9時 に、その週の最新情報をメールでお届けします
メール配信サービスは MailChimp によって提供されています
Few-Shot学習のための言語モデルの継続的訓練 | 記事 | HyperAI超神経