تحليل الدوائر الناخبة باستخدام مُشفِّر ذاتي الانتباه

نثبت أن استبدال مُشفر LSTM ببنية ذاتية الانتباه (self-attentive) يمكن أن يؤدي إلى تحسينات في محرك فك التركيب التمييزي الأفضل على مستوى العالم. استخدام آلية الانتباه يجعل الطريقة التي يتم فيها نقل المعلومات بين مواقع مختلفة في الجملة واضحة، والتي نستخدمها لتحليل نموذجنا واقتراح تحسينات محتملة. على سبيل المثال، نجد أن فصل المعلومات المكانية والمحتوى في المشفر يمكن أن يؤدي إلى دقة أفضل في فك التركيب. بالإضافة إلى ذلك، نقيم مناهج مختلفة لتمثيل الكلمات. يحقق محرك فك التركيب لدينا نتائج جديدة هي الأفضل على مستوى العالم لنماذج واحدة تم تدريبها على قاعدة بيانات بنك بن: 93.55 F1 دون استخدام أي بيانات خارجية، و95.13 F1 عند استخدام تمثيلات الكلمات المدربة مسبقًا. كما يتفوق محرك فك التركيب لدينا على أرقام الدقة المنشورة سابقًا لأفضل النماذج في 8 من اللغات الـ9 في مجموعة بيانات SPMRL.注释:- LSTM: طول القصيرة-المدى طويل (Long Short-Term Memory)- F1: معامل F1 (F1 score)- Penn Treebank: بنك الشجرة البنيوي (Penn Treebank)- SPMRL: مؤتمر المعالجة الآلية للغات ذات المصادر القليلة واللغات الإقليمية (Conference on Natural Language Processing in the Less Resourced Languages and Regional Languages)