언어모델링
언어 모델링은 문서에서 다음 단어나 문자를 예측하는 작업으로, 훈련된 언어 모델은 텍스트 생성, 텍스트 분류, 질문 응답 등 다양한 자연어 처리 작업에 적용될 수 있습니다. 2010년대 이후로는 신경망 기반 언어 모델이 N-gram 모델을 대체하였으며, 2020년대 이후로는 대형 언어 모델(Large Language Models, LLMs)이 최고 성능을 달성하기 위한 유일한 방법이 되었습니다. 이러한 모델의 성능은 크로스 엔트로피와 퍼플렉서티 등의 지표를 사용하여 평가되며, 일반적으로 사용되는 데이터셋에는 WikiText-103, One Billion Word, Text8, C4, The Pile 등이 있습니다.
WikiText-103
RETRO (7.5B)
Penn Treebank (Word Level)
GPT-3 (Zero-Shot)
enwik8
GPT-2 (48 layers, h=1600)
The Pile
Test-Time Fine-Tuning with SIFT + Llama-3.2 (3B)
WikiText-2
SparseGPT (175B, 50% Sparsity)
LAMBADA
GPT-3 175B (Few-Shot)
One Billion Word
OmniNetT (Large)
Text8
GPT-2
Penn Treebank (Character Level)
Mogrifier LSTM + dynamic eval
Hutter Prize
Transformer-XL + RMS dynamic eval
C4
Primer
SALMon
Spirit-LM (Expr.)
OpenWebText
GPT2-Hermite
BIG-bench-lite
GLM-130B (3-shot)
Wiki-40B
FLASH-Quad-8k
CLUE (AFQMC)
CLUE (C3)
CLUE (CMNLI)
CLUE (CMRC2018)
GLM-130B
CLUE (DRCD)
CLUE (OCNLI_50K)
GLM-130B
CLUE (WSC1.1)
FewCLUE (BUSTM)
FewCLUE (CHID-FC)
FewCLUE (CLUEWSC-FC)
FewCLUE (EPRSTMT)
FewCLUE (OCNLI-FC)
VietMed
Hybrid 4-gram VietMed-Train + ExtraText
Ethereum Phishing Transaction Network
100 sleep nights of 8 caregivers
Gpt3
2000 HUB5 English
MMLU
Arxiv HEP-TH citation graph
Bookcorpus2
Books3
Curation Corpus
DM Mathematics
enwik8 dev
Transformer-LS (small)
enwiki8
PAR Transformer 24B
FreeLaw
GitHub
Gutenberg PG-19
HackerNews
language-modeling-recommendation
GPT2
NIH ExPorter
OpenSubtitles
OpenWebtext2
PhilPapers
Pile CC
PTB Diagnostic ECG Database
I-DARTS
PubMed Cognitive Control Abstracts
PubMed Central
StackExchange
Gopher
Text8 dev
Transformer-LS (small)
Ubuntu IRC
USPTO Backgrounds