HyperAIHyperAI

Command Palette

Search for a command to run...

InfoXLM: إطار نظري معلوماتي للتدريب المسبق لنموذج اللغة عبر اللغات

Zewen Chi Li Dong Furu Wei Nan Yang Saksham Singhal Wenhui Wang Xia Song Xian-Ling Mao Heyan Huang Ming Zhou

الملخص

في هذا العمل، نقدم إطارًا نظريًا مبنيًا على نظرية المعلومات، يُصاغ فيه تدريب النماذج اللغوية عبر اللغات كعملية تهدف إلى تحسين المعلومات المتبادلة بين النصوص متعددة اللغات وبأحجام متعددة. يساعدنا هذا الرؤية الموحدة على فهم أعمق للطرق الحالية لتعلم التمثيلات عبر اللغات. وبشكل أكثر أهمية، مستوحى من هذا الإطار، نقترح مهمة جديدة للتدريب المسبق تعتمد على التعلم المقابل (contrastive learning). وبشكل خاص، نعتبر زوج الجملة الثنائية اللغة كوجهين لنفس المعنى، ونُشجع تمثيلاتهما المُشفرة على أن تكون أكثر تشابهًا من الأمثلة السلبية. وباستغلال كل من المجموعات النصية الأحادية اللغة والمجموعات المتزامنة، نُدرّب مهام التدريب المسبق بشكل مشترك لتحسين قدرة النماذج المُدرّبة مسبقًا على الانتقال عبر اللغات. أظهرت النتائج التجريبية على عدة معايير أداءً متميزًا بشكل ملحوظ. يمكن الوصول إلى الكود والنماذج المُدرّبة مسبقًا من خلال الرابط: https://aka.ms/infoxlm.


بناء الذكاء الاصطناعي بالذكاء الاصطناعي

من الفكرة إلى الإطلاق — سرّع تطوير الذكاء الاصطناعي الخاص بك مع المساعدة البرمجية المجانية بالذكاء الاصطناعي، وبيئة جاهزة للاستخدام، وأفضل أسعار لوحدات معالجة الرسومات.

البرمجة التعاونية باستخدام الذكاء الاصطناعي
وحدات GPU جاهزة للعمل
أفضل الأسعار

HyperAI Newsletters

اشترك في آخر تحديثاتنا
سنرسل لك أحدث التحديثات الأسبوعية إلى بريدك الإلكتروني في الساعة التاسعة من صباح كل يوم اثنين
مدعوم بواسطة MailChimp
InfoXLM: إطار نظري معلوماتي للتدريب المسبق لنموذج اللغة عبر اللغات | مستندات | HyperAI