HyperAI
HyperAI
الرئيسية
المنصة
الوثائق
الأخبار
الأوراق البحثية
الدروس
مجموعات البيانات
الموسوعة
SOTA
نماذج LLM
لوحة الأداء GPU
الفعاليات
البحث
حول
شروط الخدمة
سياسة الخصوصية
العربية
HyperAI
HyperAI
Toggle Sidebar
البحث في الموقع...
⌘
K
Command Palette
Search for a command to run...
المنصة
الرئيسية
SOTA
الأسئلة والإجابة عبر اللغات
Cross Lingual Question Answering On Xquad
Cross Lingual Question Answering On Xquad
المقاييس
Average F1
النتائج
نتائج أداء النماذج المختلفة على هذا المعيار القياسي
Columns
اسم النموذج
Average F1
Paper Title
mLUKE-E
74.2
mLUKE: The Power of Entity Representations in Multilingual Pretrained Language Models
Coupled
-
Rethinking embedding coupling in pre-trained language models
ByT5 XXL
-
ByT5: Towards a token-free future with pre-trained byte-to-byte models
Decoupled
-
Rethinking embedding coupling in pre-trained language models
0 of 4 row(s) selected.
Previous
Next