نموذج اللغة
نمذجة اللغة هي مهمة توقع الكلمة أو الحرف التالي في وثيقة، ويمكن تطبيق النماذج اللغوية المدربة على مهام معالجة اللغة الطبيعية المختلفة مثل إنشاء النصوص، تصنيف النصوص، وإجابة الأسئلة. منذ عقد 2010، تم استبدال نماذج N-gram بالنماذج اللغوية العصبية، وبعد عقد 2020، أصبحت النماذج اللغوية الكبيرة (LLMs) الطريق الوحيد لتحقيق أداء رائد. يتم تقييم قدرات هذه النماذج باستخدام مقاييس مثل الت�� المتقاطع والحيرة، ومن بين المجموعات الشائعة للبيانات WikiText-103، One Billion Word، Text8، C4، وThe Pile.
WikiText-103
RETRO (7.5B)
Penn Treebank (Word Level)
GPT-3 (Zero-Shot)
enwik8
GPT-2 (48 layers, h=1600)
The Pile
Test-Time Fine-Tuning with SIFT + Llama-3.2 (3B)
WikiText-2
SparseGPT (175B, 50% Sparsity)
LAMBADA
GPT-3 175B (Few-Shot)
One Billion Word
OmniNetT (Large)
Text8
GPT-2
Penn Treebank (Character Level)
Mogrifier LSTM + dynamic eval
Hutter Prize
Transformer-XL + RMS dynamic eval
C4
Primer
SALMon
Spirit-LM (Expr.)
OpenWebText
GPT2-Hermite
Wiki-40B
FLASH-Quad-8k
BIG-bench-lite
GLM-130B (3-shot)
FewCLUE (OCNLI-FC)
FewCLUE (EPRSTMT)
CLUE (CMRC2018)
GLM-130B
CLUE (WSC1.1)
CLUE (OCNLI_50K)
GLM-130B
FewCLUE (CHID-FC)
CLUE (DRCD)
VietMed
Hybrid 4-gram VietMed-Train + ExtraText
CLUE (C3)
FewCLUE (BUSTM)
CLUE (CMNLI)
CLUE (AFQMC)
FewCLUE (CLUEWSC-FC)
enwik8 dev
Transformer-LS (small)
HackerNews
Curation Corpus
USPTO Backgrounds
Ethereum Phishing Transaction Network
NIH ExPorter
OpenWebtext2
StackExchange
Gopher
PTB Diagnostic ECG Database
I-DARTS
PubMed Central
Gutenberg PG-19
GitHub
Pile CC
language-modeling-recommendation
GPT2
Text8 dev
Transformer-LS (small)
PhilPapers
Books3
Arxiv HEP-TH citation graph
Bookcorpus2
OpenSubtitles
FreeLaw
100 sleep nights of 8 caregivers
Gpt3
PubMed Cognitive Control Abstracts
DM Mathematics
enwiki8
PAR Transformer 24B
2000 HUB5 English
MMLU
Ubuntu IRC