Language Modelling
معالجة اللغات الطبيعية (NLP) هي فرع من فروع الذكاء الاصطناعي يركز على تمكين الحواسيب من فهم وتفسير وإنتاج اللغة البشرية. هدفها هو جسر الفجوة في التواصل بين البشر والآلات، مما يعزز كفاءة وجودة تبادل المعلومات. قيمة تطبيق معالجة اللغات الطبيعية واسعة النطاق، وتتضمن خدمة العملاء الذكية، وتحليل المشاعر، وترجمة الآلة، وملخص النصوص وغيرها، مما ساهم بشكل كبير في تطوير المعلوماتية في المجتمع والتحول الذكي للشركات.
Ethereum Phishing Transaction Network
100 sleep nights of 8 caregivers
Gpt3
2000 HUB5 English
MMLU
Arxiv HEP-TH citation graph
BIG-bench-lite
GLM-130B (3-shot)
Bookcorpus2
Books3
C4
Primer
CLUE (AFQMC)
CLUE (C3)
CLUE (CMNLI)
CLUE (CMRC2018)
GLM-130B
CLUE (DRCD)
CLUE (OCNLI_50K)
GLM-130B
CLUE (WSC1.1)
Curation Corpus
DM Mathematics
enwik8
GPT-2 (48 layers, h=1600)
enwik8 dev
Transformer-LS (small)
enwiki8
PAR Transformer 24B
FewCLUE (BUSTM)
FewCLUE (CHID-FC)
FewCLUE (CLUEWSC-FC)
FewCLUE (EPRSTMT)
FewCLUE (OCNLI-FC)
FreeLaw
GitHub
Gutenberg PG-19
HackerNews
Hutter Prize
Transformer-XL + RMS dynamic eval
LAMBADA
GPT-3 175B (Few-Shot)
language-modeling-recommendation
GPT2
NIH ExPorter
One Billion Word
MDLM (AR baseline)
OpenSubtitles
OpenWebText
GPT2-Hermite
OpenWebtext2
Penn Treebank (Character Level)
Mogrifier LSTM + dynamic eval
Penn Treebank (Word Level)
GPT-3 (Zero-Shot)
PhilPapers
Pile CC
PTB Diagnostic ECG Database
I-DARTS
PubMed Cognitive Control Abstracts
PubMed Central
SALMon
Spirit-LM (Expr.)
StackExchange
Gopher
Text8
GPT-2
Text8 dev
Transformer-LS (small)
The Pile
Test-Time Fine-Tuning with SIFT + Llama-3.2 (3B)
Ubuntu IRC
USPTO Backgrounds
VietMed
Hybrid 4-gram VietMed-Train + ExtraText
Wiki-40B
FLASH-Quad-8k
WikiText-103
RETRO (7.5B)
WikiText-2
SparseGPT (175B, 50% Sparsity)