Command Palette
Search for a command to run...
{Jeffrey Wu Rewon Child Ilya Sutskever David Luan Alec Radford Dario Amodei}
要約
自然言語処理タスク、たとえば質問応答、機械翻訳、読解、要約などは、通常、タスク固有のデータセットを用いた教師あり学習によってアプローチされる。本研究では、数百万のウェブページから構成される新規データセット「WebText」上で学習させた言語モデルが、明示的な教師信号なしにこれらのタスクを学習し始めることが示された。ドキュメントと質問を入力条件として与えた場合、言語モデルが生成する回答はCoQAデータセットにおいて55のF1スコアに達し、127,000以上の訓練例を用いないにもかかわらず、4つのベースラインシステムのうち3つと同等、あるいはそれ以上の性能を達成した。言語モデルの容量は、ゼロショットタスク転送の成功にとって不可欠であり、モデルの容量を増大させることで、複数のタスクにおいて対数線形の改善が見られた。我々が開発した最大規模のモデルであるGPT-2は、15億パラメータを持つTransformerモデルであり、ゼロショット設定下でテストされた8つの言語モデルデータセットのうち7つで最先端の結果を達成しているが、依然としてWebTextに対してはアンダーフィットしている。モデルから生成されたサンプルは、こうした改善を反映しており、一貫性のある段落レベルのテキストを含んでいる。これらの結果は、自然に現れる例からタスクを学習することができる言語処理システムの構築に向けた有望な道筋を示唆している。
ベンチマーク
| ベンチマーク | 方法論 | 指標 |
|---|---|---|
| coreference-resolution-on-winograd-schema | GPT-2-XL 1.5B | Accuracy: 70.7 |
| dialogue-state-tracking-on-simmc2-0 | GPT-2 | Act F1: 94.5 Slot F1: 81.7 |
| document-summarization-on-cnn-daily-mail | GPT-2 | ROUGE-1: 29.34 ROUGE-2: 8.27 ROUGE-L: 26.58 |
| language-modelling-on-enwiki8 | GPT-2 (48 layers, h=1600) | Bit per Character (BPC): 0.93 Number of params: 1542M |
| language-modelling-on-lambada | GPT-2 1.5B (Zero Shot) | Accuracy: 63.24 Perplexity: 8.63 |
| language-modelling-on-one-billion-word | GPT-2 | Number of params: 1.54B PPL: 42.16 |
| language-modelling-on-penn-treebank-word | GPT-2 | Params: 1542M Test perplexity: 35.76 |
| language-modelling-on-text8 | GPT-2 | Bit per Character (BPC): 0.98 Number of params: 1542M |
| language-modelling-on-wikitext-103 | GPT-2 Large | Number of params: 774M Test perplexity: 22.05 |
| language-modelling-on-wikitext-103 | GPT-2 Small | Number of params: 124M Test perplexity: 37.50 |
| language-modelling-on-wikitext-103 | GPT-2 Full | Number of params: 1542M Test perplexity: 17.48 |
| language-modelling-on-wikitext-103 | GPT-2 Medium | Number of params: 355M Test perplexity: 26.37 |
| language-modelling-on-wikitext-2 | GPT-2 (medium) | Number of params: 345M Test perplexity: 22.76 |
| language-modelling-on-wikitext-2 | GPT-2 (large) | Number of params: 762M Test perplexity: 19.93 |
| language-modelling-on-wikitext-2 | GPT-2 | Number of params: 1542M Test perplexity: 18.34 |
| language-modelling-on-wikitext-2 | GPT-2 (small) | Number of params: 117M Test perplexity: 29.41 |
| question-answering-on-fever | Zero-shot | EM: 50 |
| question-answering-on-webquestions | Zero-shot | EM: 43 |
| response-generation-on-simmc2-0 | GPT-2 | BLEU: 19.2 |
| sentiment-analysis-on-imdb | GPT-2 Finetuned | Accuracy: 92.36 |
| text-generation-on-openwebtext | GPT2-124M | eval_loss: 3.12 |