Command Palette
Search for a command to run...
言語モデル
言語モデルは、文書の次の単語や文字を予測するタスクであり、訓練された言語モデルはテキスト生成、テキスト分類、質問応答など、さまざまな自然言語処理タスクに適用できます。2010年代以降、ニューラル言語モデルがN-gramモデルに取って代わり、2020年代以降は大規模言語モデル(LLMs)が最先端の性能を達成する唯一の道となっています。これらのモデルの能力は、クロスエントロピーやパープレキシティなどの指標で評価され、一般的なデータセットにはWikiText-103、One Billion Word、Text8、C4、The Pileなどが含まれます。
WikiText-103
RETRO (7.5B)
Penn Treebank (Word Level)
GPT-3 (Zero-Shot)
enwik8
GPT-2 (48 layers, h=1600)
The Pile
Test-Time Fine-Tuning with SIFT + Llama-3.2 (3B)
WikiText-2
SparseGPT (175B, 50% Sparsity)
LAMBADA
GPT-3 175B (Few-Shot)
One Billion Word
OmniNetT (Large)
Text8
GPT-2
Penn Treebank (Character Level)
Mogrifier LSTM + dynamic eval
Hutter Prize
Transformer-XL + RMS dynamic eval
C4
Primer
SALMon
Spirit-LM (Expr.)
OpenWebText
GPT2-Hermite
Wiki-40B
FLASH-Quad-8k
BIG-bench-lite
GLM-130B (3-shot)
FewCLUE (OCNLI-FC)
FewCLUE (EPRSTMT)
CLUE (CMRC2018)
GLM-130B
CLUE (WSC1.1)
CLUE (OCNLI_50K)
GLM-130B
FewCLUE (CHID-FC)
CLUE (DRCD)
VietMed
Hybrid 4-gram VietMed-Train + ExtraText
CLUE (C3)
FewCLUE (BUSTM)
CLUE (CMNLI)
CLUE (AFQMC)
FewCLUE (CLUEWSC-FC)
enwik8 dev
Transformer-LS (small)
HackerNews
Curation Corpus
USPTO Backgrounds
Ethereum Phishing Transaction Network
NIH ExPorter
OpenWebtext2
StackExchange
Gopher
PTB Diagnostic ECG Database
I-DARTS
PubMed Central
Gutenberg PG-19
GitHub
Pile CC
language-modeling-recommendation
GPT2
Text8 dev
Transformer-LS (small)
PhilPapers
Books3
Arxiv HEP-TH citation graph
Bookcorpus2
OpenSubtitles
FreeLaw
100 sleep nights of 8 caregivers
Gpt3
PubMed Cognitive Control Abstracts
DM Mathematics
enwiki8
PAR Transformer 24B
2000 HUB5 English
MMLU
Ubuntu IRC