Command Palette

Search for a command to run...

4ヶ月前

言語モデルは教師なしマルチタスク学習者である

{Jeffrey Wu Rewon Child Ilya Sutskever David Luan Alec Radford Dario Amodei}

要約

自然言語処理タスク、たとえば質問応答、機械翻訳、読解、要約などは、通常、タスク固有のデータセットを用いた教師あり学習によってアプローチされる。本研究では、数百万のウェブページから構成される新規データセット「WebText」上で学習させた言語モデルが、明示的な教師信号なしにこれらのタスクを学習し始めることが示された。ドキュメントと質問を入力条件として与えた場合、言語モデルが生成する回答はCoQAデータセットにおいて55のF1スコアに達し、127,000以上の訓練例を用いないにもかかわらず、4つのベースラインシステムのうち3つと同等、あるいはそれ以上の性能を達成した。言語モデルの容量は、ゼロショットタスク転送の成功にとって不可欠であり、モデルの容量を増大させることで、複数のタスクにおいて対数線形の改善が見られた。我々が開発した最大規模のモデルであるGPT-2は、15億パラメータを持つTransformerモデルであり、ゼロショット設定下でテストされた8つの言語モデルデータセットのうち7つで最先端の結果を達成しているが、依然としてWebTextに対してはアンダーフィットしている。モデルから生成されたサンプルは、こうした改善を反映しており、一貫性のある段落レベルのテキストを含んでいる。これらの結果は、自然に現れる例からタスクを学習することができる言語処理システムの構築に向けた有望な道筋を示唆している。

ベンチマーク

ベンチマーク方法論指標
coreference-resolution-on-winograd-schemaGPT-2-XL 1.5B
Accuracy: 70.7
dialogue-state-tracking-on-simmc2-0GPT-2
Act F1: 94.5
Slot F1: 81.7
document-summarization-on-cnn-daily-mailGPT-2
ROUGE-1: 29.34
ROUGE-2: 8.27
ROUGE-L: 26.58
language-modelling-on-enwiki8GPT-2 (48 layers, h=1600)
Bit per Character (BPC): 0.93
Number of params: 1542M
language-modelling-on-lambadaGPT-2 1.5B (Zero Shot)
Accuracy: 63.24
Perplexity: 8.63
language-modelling-on-one-billion-wordGPT-2
Number of params: 1.54B
PPL: 42.16
language-modelling-on-penn-treebank-wordGPT-2
Params: 1542M
Test perplexity: 35.76
language-modelling-on-text8GPT-2
Bit per Character (BPC): 0.98
Number of params: 1542M
language-modelling-on-wikitext-103GPT-2 Large
Number of params: 774M
Test perplexity: 22.05
language-modelling-on-wikitext-103GPT-2 Small
Number of params: 124M
Test perplexity: 37.50
language-modelling-on-wikitext-103GPT-2 Full
Number of params: 1542M
Test perplexity: 17.48
language-modelling-on-wikitext-103GPT-2 Medium
Number of params: 355M
Test perplexity: 26.37
language-modelling-on-wikitext-2GPT-2 (medium)
Number of params: 345M
Test perplexity: 22.76
language-modelling-on-wikitext-2GPT-2 (large)
Number of params: 762M
Test perplexity: 19.93
language-modelling-on-wikitext-2GPT-2
Number of params: 1542M
Test perplexity: 18.34
language-modelling-on-wikitext-2GPT-2 (small)
Number of params: 117M
Test perplexity: 29.41
question-answering-on-feverZero-shot
EM: 50
question-answering-on-webquestionsZero-shot
EM: 43
response-generation-on-simmc2-0GPT-2
BLEU: 19.2
sentiment-analysis-on-imdbGPT-2 Finetuned
Accuracy: 92.36
text-generation-on-openwebtextGPT2-124M
eval_loss: 3.12

AI で AI を構築

アイデアからローンチまで — 無料の AI 共同コーディング、すぐに使える環境、最適価格の GPU で AI 開発を加速。

AI 共同コーディング
すぐに使える GPU
最適価格
今すぐ始める

Hyper Newsletters

最新情報を購読する
北京時間 毎週月曜日の午前9時 に、その週の最新情報をメールでお届けします
メール配信サービスは MailChimp によって提供されています
言語モデルは教師なしマルチタスク学習者である | 論文 | HyperAI超神経