HyperAIHyperAI

Command Palette

Search for a command to run...

vor 4 Monaten

Sprachmodelle sind unbeaufsichtigte Mehraufgaben-Lerner

{Jeffrey Wu Rewon Child Ilya Sutskever David Luan Alec Radford Dario Amodei}

Abstract

Aufgaben des natürlichen Sprachverstehens wie Fragebeantwortung, maschinelle Übersetzung, Leseverständnis und Zusammenfassung werden typischerweise mit überwachtem Lernen an aufgabe-spezifischen Datensätzen angegangen. Wir zeigen, dass Sprachmodelle diese Aufgaben bereits ohne explizite Überwachung erlernen, wenn sie auf einem neuen Datensatz aus Millionen von Webseiten namens WebText trainiert werden. Wenn das Sprachmodell auf einen Dokument- und Fragen-Input konditioniert wird, erreichen die generierten Antworten eine F1-Score von 55 auf dem CoQA-Datensatz – was die Leistung von drei von vier Baseline-Systemen erreicht oder sogar übertrifft, ohne die 127.000+ Trainingsbeispiele zu nutzen. Die Kapazität des Sprachmodells ist entscheidend für den Erfolg des zero-shot Task Transfer, und eine Erhöhung der Kapazität verbessert die Leistung über alle Aufgaben hinweg log-linear. Unser größtes Modell, GPT-2, ist ein 1,5 Milliarden Parameter großes Transformer-Modell, das in einem zero-shot Setting Zustand der Kunst Ergebnisse auf sieben von acht getesteten Sprachmodellierungs-Datensätzen erzielt, dennoch jedoch noch unterfit auf WebText. Die von dem Modell generierten Textproben spiegeln diese Fortschritte wider und enthalten kohärente Absätze. Diese Ergebnisse deuten auf einen vielversprechenden Weg hin, Sprachverarbeitungssysteme zu entwickeln, die Aufgaben aus ihren natürlich vorkommenden Demonstrationen lernen.

Benchmarks

BenchmarkMethodikMetriken
coreference-resolution-on-winograd-schemaGPT-2-XL 1.5B
Accuracy: 70.7
dialogue-state-tracking-on-simmc2-0GPT-2
Act F1: 94.5
Slot F1: 81.7
document-summarization-on-cnn-daily-mailGPT-2
ROUGE-1: 29.34
ROUGE-2: 8.27
ROUGE-L: 26.58
language-modelling-on-enwiki8GPT-2 (48 layers, h=1600)
Bit per Character (BPC): 0.93
Number of params: 1542M
language-modelling-on-lambadaGPT-2 1.5B (Zero Shot)
Accuracy: 63.24
Perplexity: 8.63
language-modelling-on-one-billion-wordGPT-2
Number of params: 1.54B
PPL: 42.16
language-modelling-on-penn-treebank-wordGPT-2
Params: 1542M
Test perplexity: 35.76
language-modelling-on-text8GPT-2
Bit per Character (BPC): 0.98
Number of params: 1542M
language-modelling-on-wikitext-103GPT-2 Large
Number of params: 774M
Test perplexity: 22.05
language-modelling-on-wikitext-103GPT-2 Small
Number of params: 124M
Test perplexity: 37.50
language-modelling-on-wikitext-103GPT-2 Full
Number of params: 1542M
Test perplexity: 17.48
language-modelling-on-wikitext-103GPT-2 Medium
Number of params: 355M
Test perplexity: 26.37
language-modelling-on-wikitext-2GPT-2 (medium)
Number of params: 345M
Test perplexity: 22.76
language-modelling-on-wikitext-2GPT-2 (large)
Number of params: 762M
Test perplexity: 19.93
language-modelling-on-wikitext-2GPT-2
Number of params: 1542M
Test perplexity: 18.34
language-modelling-on-wikitext-2GPT-2 (small)
Number of params: 117M
Test perplexity: 29.41
question-answering-on-feverZero-shot
EM: 50
question-answering-on-webquestionsZero-shot
EM: 43
response-generation-on-simmc2-0GPT-2
BLEU: 19.2
sentiment-analysis-on-imdbGPT-2 Finetuned
Accuracy: 92.36
text-generation-on-openwebtextGPT2-124M
eval_loss: 3.12

KI mit KI entwickeln

Von der Idee bis zum Start — beschleunigen Sie Ihre KI-Entwicklung mit kostenlosem KI-Co-Coding, sofort einsatzbereiter Umgebung und den besten GPU-Preisen.

KI-Co-Coding
Sofort einsatzbereit GPUs
Beste Preise
Jetzt starten

Hyper Newsletters

Abonnieren Sie unsere neuesten Updates
Wir werden die neuesten Updates der Woche in Ihren Posteingang liefern um neun Uhr jeden Montagmorgen
Unterstützt von MailChimp
Sprachmodelle sind unbeaufsichtigte Mehraufgaben-Lerner | Forschungsarbeiten | HyperAI