HyperAI
HyperAI
الرئيسية
الصفحة الرئيسية
GPU
وحدة التحكم
التوثيق
التسعير
Pulse
الأخبار
الموارد
الأوراق البحثية
دفاتر تفاعلية
مجموعات بيانات
ويكي
الاختبارات القياسية
SOTA
نماذج اللغة الكبيرة (LLM)
لوحة صدارة وحدات معالجة الرسوميات GPU
المجتمع
الفعاليات
أدوات
بحث
حول
شروط الخدمة
سياسة الخصوصية
العربية
HyperAI
HyperAI
Toggle Sidebar
⌘
K
Command Palette
Search for a command to run...
تسجيل الدخول
HyperAI
الأوراق البحثية
XLM-E: التدريب المسبق للنموذج اللغوي عبر اللغات باستخدام ELECTRA
منذ 6 أشهر
Transformer
الترجمة
LLM
النهج/المعمارية
معالجة اللغة الطبيعية
مهمة
ملخص
ورقة بحثية
المعايير المرجعية
الموارد
Mind23-2/MindCode-151
mindspore
microsoft/unilm
رسمي
pytorch
CZWin32768/xnlg
pytorch
HyperAI
HyperAI
الرئيسية
الصفحة الرئيسية
GPU
وحدة التحكم
التوثيق
التسعير
Pulse
الأخبار
الموارد
الأوراق البحثية
دفاتر تفاعلية
مجموعات بيانات
ويكي
الاختبارات القياسية
SOTA
نماذج اللغة الكبيرة (LLM)
لوحة صدارة وحدات معالجة الرسوميات GPU
المجتمع
الفعاليات
أدوات
بحث
حول
شروط الخدمة
سياسة الخصوصية
العربية
HyperAI
HyperAI
Toggle Sidebar
⌘
K
Command Palette
Search for a command to run...
تسجيل الدخول
HyperAI
الأوراق البحثية
XLM-E: التدريب المسبق للنموذج اللغوي عبر اللغات باستخدام ELECTRA
منذ 6 أشهر
Transformer
الترجمة
LLM
النهج/المعمارية
معالجة اللغة الطبيعية
مهمة
ملخص
ورقة بحثية
المعايير المرجعية
الموارد
Mind23-2/MindCode-151
mindspore
microsoft/unilm
رسمي
pytorch
CZWin32768/xnlg
pytorch
الموارد - XLM-E: التدريب المسبق للنموذج اللغوي عبر اللغات باستخدام ELECTRA | مستندات | HyperAI
0
0
22.0k
22.0k
129
129