HyperAIHyperAI
منذ 17 أيام

بدون تجاهل أي لغة: التوسع القائم على الإنسان في الترجمة الآلية

NLLB Team, Marta R. Costa-jussà, James Cross, Onur Çelebi, Maha Elbayad, Kenneth Heafield, Kevin Heffernan, Elahe Kalbassi, Janice Lam, Daniel Licht, Jean Maillard, Anna Sun, Skyler Wang, Guillaume Wenzek, Al Youngblood, Bapi Akula, Loic Barrault, Gabriel Mejia Gonzalez, Prangthip Hansanti, John Hoffman, Semarley Jarrett, Kaushik Ram Sadagopan, Dirk Rowe, Shannon Spruit, Chau Tran, Pierre Andrews, Necip Fazil Ayan, Shruti Bhosale, Sergey Edunov, Angela Fan, Cynthia Gao, Vedanuj Goswami, Francisco Guzmán, Philipp Koehn, Alexandre Mourachko, Christophe Ropers, Safiyyah Saleem, Holger Schwenk, Jeff Wang
بدون تجاهل أي لغة: التوسع القائم على الإنسان في الترجمة الآلية
الملخص

بسبب الهدف المتمثل في القضاء على الحواجز اللغوية على المستوى العالمي، أصبحت الترجمة الآلية حجر الزاوية في بحوث الذكاء الاصطناعي اليوم. ومع ذلك، تركز هذه الجهود على مجموعة صغيرة من اللغات، مما يترك وراءه الغالبية العظمى من اللغات التي تُعد منخفضة الموارد. ما الذي يتطلبه كسر حاجز اللغات الـ200 مع ضمان نتائج آمنة وعالية الجودة، مع أخذ الاعتبارات الأخلاقية بعين الاعتبار؟ في مشروع "لا تترك لغة وراءها" (No Language Left Behind)، تناولنا هذا التحدي من خلال أولاً توضيح الحاجة إلى دعم الترجمة للغات منخفضة الموارد، وذلك من خلال مقابلات استكشافية مع الناطقين الأصليين. ثم قمنا بإنشاء مجموعات بيانات ونماذج موجهة إلى تقليل الفجوة في الأداء بين اللغات منخفضة الموارد واللغات الغنية بالموارد. وبشكل أكثر تحديدًا، طوّرنا نموذجًا يعتمد على حساب مشروط يستند إلى "مزيج خبراء نادر التفعيل" (Sparsely Gated Mixture of Experts)، تم تدريبه على بيانات تم جمعها باستخدام تقنيات مبتكرة وفعالة لاستخراج البيانات مخصصة للغات منخفضة الموارد. واقترحنا تحسينات معمارية وتدريبية متعددة للحد من ظاهرة التخصّص الزائد (Overfitting) أثناء التدريب على آلاف المهام. وتحديدًا، قمنا بتقييم أداء أكثر من 40,000 اتجاه ترجمة مختلف باستخدام معيار ترجمة بشرية معيارية (Flores-200)، ودمجنا التقييم البشري مع معيار جديد لتقييم السُمية (Toxicity Benchmark) يغطي جميع اللغات المدرجة في Flores-200 لتقييم سلامة الترجمة. حقق نموذجنا تحسينًا بنسبة 44% في معيار BLEU مقارنة بأفضل نموذج سابق، مما يُعد خطوة أساسية نحو تحقيق نظام ترجمة عالمي. وأخيرًا، قمنا بالإفصاح عن جميع المساهمات المذكورة في هذا العمل عبر المصدر المفتوح، ويمكن الوصول إليها عبر الرابط التالي: https://github.com/facebookresearch/fairseq/tree/nllb.

بدون تجاهل أي لغة: التوسع القائم على الإنسان في الترجمة الآلية | أحدث الأوراق البحثية | HyperAI