Command Palette
Search for a command to run...
언어모델링
언어 모델링은 문서에서 다음 단어나 문자를 예측하는 작업으로, 훈련된 언어 모델은 텍스트 생성, 텍스트 분류, 질문 응답 등 다양한 자연어 처리 작업에 적용될 수 있습니다. 2010년대 이후로는 신경망 기반 언어 모델이 N-gram 모델을 대체하였으며, 2020년대 이후로는 대형 언어 모델(Large Language Models, LLMs)이 최고 성능을 달성하기 위한 유일한 방법이 되었습니다. 이러한 모델의 성능은 크로스 엔트로피와 퍼플렉서티 등의 지표를 사용하여 평가되며, 일반적으로 사용되는 데이터셋에는 WikiText-103, One Billion Word, Text8, C4, The Pile 등이 있습니다.
WikiText-103
RETRO (7.5B)
Penn Treebank (Word Level)
GPT-3 (Zero-Shot)
enwik8
GPT-2 (48 layers, h=1600)
The Pile
Test-Time Fine-Tuning with SIFT + Llama-3.2 (3B)
WikiText-2
SparseGPT (175B, 50% Sparsity)
LAMBADA
GPT-3 175B (Few-Shot)
One Billion Word
OmniNetT (Large)
Text8
GPT-2
Penn Treebank (Character Level)
Mogrifier LSTM + dynamic eval
Hutter Prize
Transformer-XL + RMS dynamic eval
C4
Primer
SALMon
Spirit-LM (Expr.)
OpenWebText
GPT2-Hermite
Wiki-40B
FLASH-Quad-8k
BIG-bench-lite
GLM-130B (3-shot)
FewCLUE (OCNLI-FC)
FewCLUE (EPRSTMT)
CLUE (CMRC2018)
GLM-130B
CLUE (WSC1.1)
CLUE (OCNLI_50K)
GLM-130B
FewCLUE (CHID-FC)
CLUE (DRCD)
VietMed
Hybrid 4-gram VietMed-Train + ExtraText
CLUE (C3)
FewCLUE (BUSTM)
CLUE (CMNLI)
CLUE (AFQMC)
FewCLUE (CLUEWSC-FC)
enwik8 dev
Transformer-LS (small)
HackerNews
Curation Corpus
USPTO Backgrounds
Ethereum Phishing Transaction Network
NIH ExPorter
OpenWebtext2
StackExchange
Gopher
PTB Diagnostic ECG Database
I-DARTS
PubMed Central
Gutenberg PG-19
GitHub
Pile CC
language-modeling-recommendation
GPT2
Text8 dev
Transformer-LS (small)
PhilPapers
Books3
Arxiv HEP-TH citation graph
Bookcorpus2
OpenSubtitles
FreeLaw
100 sleep nights of 8 caregivers
Gpt3
PubMed Cognitive Control Abstracts
DM Mathematics
enwiki8
PAR Transformer 24B
2000 HUB5 English
MMLU
Ubuntu IRC