HyperAIHyperAI
منذ 2 أشهر

التدريب المُقَدَّم للشبكات ذات الانتباه الذاتي باستخدام نموذج التكملة

Alexei Baevski; Sergey Edunov; Yinhan Liu; Luke Zettlemoyer; Michael Auli
التدريب المُقَدَّم للشبكات ذات الانتباه الذاتي باستخدام نموذج التكملة
الملخص

نقدم نهجًا جديدًا لتدريب مسبق لنموذج متحول ثنائي الاتجاه (bi-directional transformer) يوفر زيادة كبيرة في الأداء عبر مجموعة متنوعة من مشاكل فهم اللغة. يقوم نموذجنا بحل مهمة إعادة بناء الكلمات على أسلوب الكلوز، حيث يتم حذف كل كلمة ويجب التنبؤ بها بناءً على باقي النص. تظهر التجارب زيادة كبيرة في الأداء على مجموعة اختبارات GLUE ونتائج جديدة رائدة في مجال التعرف على الكيانات المسماة (NER) بالإضافة إلى مقاييس تحليل التركيب (constituency parsing)، وهي نتائج متسقة مع النموذج BERT الذي تم تقديمه بشكل متزامن. كما نقدم تحليلًا مفصلًا لعدد من العوامل التي تسهم في التدريب الفعال المسبق، بما في ذلك نطاق البيانات وحجمها، قدرة النموذج، والاختلافات في هدف الكلوز.

التدريب المُقَدَّم للشبكات ذات الانتباه الذاتي باستخدام نموذج التكملة | أحدث الأوراق البحثية | HyperAI