HyperAIHyperAI
منذ 17 أيام

الشفافية المحسّنة لمحولات النماذج من خلال الانتشار الحذر

Ameen Ali, Thomas Schnake, Oliver Eberle, Grégoire Montavon, Klaus-Robert Müller, Lior Wolf
الشفافية المحسّنة لمحولات النماذج من خلال الانتشار الحذر
الملخص

أصبحت نماذج التحويل (Transformers) أداة أساسية في التعلم الآلي، مع تطبيقات عديدة لها. هذا يتطلب تطوير أساليب موثوقة لزيادة شفافيتها. تم اقتراح العديد من أساليب التفسير، غالبًا ما تعتمد على معلومات المشتقة (النسبة التفاضلية). نُظهر أن المشتقة في نموذج التحويل تعكس الوظيفة فقط محليًا، وبالتالي تفشل في تحديد المساهمة الفعلية للميزات المدخلة في التنبؤ بشكل موثوق. ونحدد أن "رؤوس الانتباه" (Attention Heads) و"مُعدِّل الطبقة" (LayerNorm) هما السببان الرئيسيان وراء هذه التفسيرات غير الموثوقة، ونُقدّم طريقة أكثر استقرارًا لنقل الإشارات عبر هذه الطبقات. وتشكل مقترحاتنا، التي يمكن اعتبارها تمديدًا مناسبًا للطريقة المعروفة جيدًا LRP إلى نماذج التحويل، حلًا نظريًا وتجريبيًا لتجاوز العيب في النهج القائم على المشتقة البسيطة، وتحقق أداءً متميزًا في التفسير على مجموعة واسعة من نماذج التحويل والبيانات.