Language Modelling
Sprachmodellierung ist die Aufgabe, das nächste Wort oder den nächsten Buchstaben in einem Dokument vorherzusagen. Trainierte Sprachmodelle können auf verschiedene Aufgaben der natürlichen Sprachverarbeitung angewendet werden, wie zum Beispiel Textgenerierung, Textklassifizierung und Fragebeantwortung. Seit den 2010er Jahren haben neurale Sprachmodelle die N-Gramm-Modelle abgelöst, und nach den 2020er Jahren sind große Sprachmodelle (LLMs) der einzige Weg, um den aktuellen Stand der Technik zu erreichen. Die Fähigkeiten dieser Modelle werden mit Metriken wie Kreuzentropie und Perplexität bewertet, wobei gängige Datensätze WikiText-103, One Billion Word, Text8, C4 und The Pile umfassen.
Ethereum Phishing Transaction Network
100 sleep nights of 8 caregivers
Gpt3
2000 HUB5 English
MMLU
Arxiv HEP-TH citation graph
BIG-bench-lite
GLM-130B (3-shot)
Bookcorpus2
Books3
C4
Primer
CLUE (AFQMC)
CLUE (C3)
CLUE (CMNLI)
CLUE (CMRC2018)
GLM-130B
CLUE (DRCD)
CLUE (OCNLI_50K)
GLM-130B
CLUE (WSC1.1)
Curation Corpus
DM Mathematics
enwik8
GPT-2 (48 layers, h=1600)
enwik8 dev
Transformer-LS (small)
enwiki8
PAR Transformer 24B
FewCLUE (BUSTM)
FewCLUE (CHID-FC)
FewCLUE (CLUEWSC-FC)
FewCLUE (EPRSTMT)
FewCLUE (OCNLI-FC)
FreeLaw
GitHub
Gutenberg PG-19
HackerNews
Hutter Prize
Transformer-XL + RMS dynamic eval
LAMBADA
GPT-3 175B (Few-Shot)
language-modeling-recommendation
GPT2
NIH ExPorter
One Billion Word
MDLM (AR baseline)
OpenSubtitles
OpenWebText
GPT2-Hermite
OpenWebtext2
Penn Treebank (Character Level)
Mogrifier LSTM + dynamic eval
Penn Treebank (Word Level)
GPT-3 (Zero-Shot)
PhilPapers
Pile CC
PTB Diagnostic ECG Database
I-DARTS
PubMed Cognitive Control Abstracts
PubMed Central
SALMon
Spirit-LM (Expr.)
StackExchange
Gopher
Text8
GPT-2
Text8 dev
Transformer-LS (small)
The Pile
Test-Time Fine-Tuning with SIFT + Llama-3.2 (3B)
Ubuntu IRC
USPTO Backgrounds
VietMed
Hybrid 4-gram VietMed-Train + ExtraText
Wiki-40B
FLASH-Quad-8k
WikiText-103
RETRO (7.5B)
WikiText-2
SparseGPT (175B, 50% Sparsity)