MultiFiT: تحسين كفاءة نماذج اللغة متعددة اللغات

النماذج اللغوية المدربة مسبقًا تعد واعدة بشكل خاص للغات ذات الموارد المنخفضة، حيث أنها تتطلب فقط بيانات غير مصنفة. ومع ذلك، فإن تدريب النماذج الحالية يتطلب كميات هائلة من الحوسبة، بينما غالبًا ما تؤدي النماذج المدربة مسبقًا عبر اللغات بشكل ضعيف في اللغات ذات الموارد المنخفضة. نقترح طريقة التحسين متعدد اللغات (Multi-lingual language model Fine-Tuning - MultiFiT) لتمكين الممارسين من تدريب وتحسين النماذج اللغوية بكفاءة في لغتهم الخاصة. بالإضافة إلى ذلك، نقترح طريقة بدون تصوير أولي باستخدام نموذج مدرب مسبقًا عبر اللغات موجود مسبقًا. قمنا بتقييم طرائقنا على مجموعة بيانات تصنيفية عبر اللغات مستخدمة على نطاق واسع، حيث أظهرت تفوقها على النماذج التي تم تدريبها بمقدار عدة درجات من البيانات والحوسبة. لقد أطلقنا جميع النماذج والرموز البرمجية.请注意,"zero-shot" 在这里被翻译为 "بدون تصوير أولي",这是在阿拉伯语中较为常见的翻译方式。如果需要更专业的术语,可以考虑使用 "بدون تعليم أولي"(没有初始训练)。