Sprachmodelle sind unbeaufsichtigte Mehraufgaben-Lerner
{Jeffrey Wu Rewon Child Ilya Sutskever David Luan Alec Radford Dario Amodei}
Abstract
Aufgaben des natürlichen Sprachverstehens wie Fragebeantwortung, maschinelle Übersetzung, Leseverständnis und Zusammenfassung werden typischerweise mit überwachtem Lernen an aufgabe-spezifischen Datensätzen angegangen. Wir zeigen, dass Sprachmodelle diese Aufgaben bereits ohne explizite Überwachung erlernen, wenn sie auf einem neuen Datensatz aus Millionen von Webseiten namens WebText trainiert werden. Wenn das Sprachmodell auf einen Dokument- und Fragen-Input konditioniert wird, erreichen die generierten Antworten eine F1-Score von 55 auf dem CoQA-Datensatz – was die Leistung von drei von vier Baseline-Systemen erreicht oder sogar übertrifft, ohne die 127.000+ Trainingsbeispiele zu nutzen. Die Kapazität des Sprachmodells ist entscheidend für den Erfolg des zero-shot Task Transfer, und eine Erhöhung der Kapazität verbessert die Leistung über alle Aufgaben hinweg log-linear. Unser größtes Modell, GPT-2, ist ein 1,5 Milliarden Parameter großes Transformer-Modell, das in einem zero-shot Setting Zustand der Kunst Ergebnisse auf sieben von acht getesteten Sprachmodellierungs-Datensätzen erzielt, dennoch jedoch noch unterfit auf WebText. Die von dem Modell generierten Textproben spiegeln diese Fortschritte wider und enthalten kohärente Absätze. Diese Ergebnisse deuten auf einen vielversprechenden Weg hin, Sprachverarbeitungssysteme zu entwickeln, die Aufgaben aus ihren natürlich vorkommenden Demonstrationen lernen.
Benchmarks
| Benchmark | Methodik | Metriken |
|---|---|---|
| coreference-resolution-on-winograd-schema | GPT-2-XL 1.5B | Accuracy: 70.7 |
| dialogue-state-tracking-on-simmc2-0 | GPT-2 | Act F1: 94.5 Slot F1: 81.7 |
| document-summarization-on-cnn-daily-mail | GPT-2 | ROUGE-1: 29.34 ROUGE-2: 8.27 ROUGE-L: 26.58 |
| language-modelling-on-enwiki8 | GPT-2 (48 layers, h=1600) | Bit per Character (BPC): 0.93 Number of params: 1542M |
| language-modelling-on-lambada | GPT-2 1.5B (Zero Shot) | Accuracy: 63.24 Perplexity: 8.63 |
| language-modelling-on-one-billion-word | GPT-2 | Number of params: 1.54B PPL: 42.16 |
| language-modelling-on-penn-treebank-word | GPT-2 | Params: 1542M Test perplexity: 35.76 |
| language-modelling-on-text8 | GPT-2 | Bit per Character (BPC): 0.98 Number of params: 1542M |
| language-modelling-on-wikitext-103 | GPT-2 Large | Number of params: 774M Test perplexity: 22.05 |
| language-modelling-on-wikitext-103 | GPT-2 Small | Number of params: 124M Test perplexity: 37.50 |
| language-modelling-on-wikitext-103 | GPT-2 Full | Number of params: 1542M Test perplexity: 17.48 |
| language-modelling-on-wikitext-103 | GPT-2 Medium | Number of params: 355M Test perplexity: 26.37 |
| language-modelling-on-wikitext-2 | GPT-2 (medium) | Number of params: 345M Test perplexity: 22.76 |
| language-modelling-on-wikitext-2 | GPT-2 (large) | Number of params: 762M Test perplexity: 19.93 |
| language-modelling-on-wikitext-2 | GPT-2 | Number of params: 1542M Test perplexity: 18.34 |
| language-modelling-on-wikitext-2 | GPT-2 (small) | Number of params: 117M Test perplexity: 29.41 |
| question-answering-on-fever | Zero-shot | EM: 50 |
| question-answering-on-webquestions | Zero-shot | EM: 43 |
| response-generation-on-simmc2-0 | GPT-2 | BLEU: 19.2 |
| sentiment-analysis-on-imdb | GPT-2 Finetuned | Accuracy: 92.36 |
| text-generation-on-openwebtext | GPT2-124M | eval_loss: 3.12 |
KI mit KI entwickeln
Von der Idee bis zum Start — beschleunigen Sie Ihre KI-Entwicklung mit kostenlosem KI-Co-Coding, sofort einsatzbereiter Umgebung und den besten GPU-Preisen.