HyperAIHyperAI

Command Palette

Search for a command to run...

تحليل الدوائر الناخبة باستخدام مُشفِّر ذاتي الانتباه

Nikita Kitaev Dan Klein

الملخص

نثبت أن استبدال مُشفر LSTM ببنية ذاتية الانتباه (self-attentive) يمكن أن يؤدي إلى تحسينات في محرك فك التركيب التمييزي الأفضل على مستوى العالم. استخدام آلية الانتباه يجعل الطريقة التي يتم فيها نقل المعلومات بين مواقع مختلفة في الجملة واضحة، والتي نستخدمها لتحليل نموذجنا واقتراح تحسينات محتملة. على سبيل المثال، نجد أن فصل المعلومات المكانية والمحتوى في المشفر يمكن أن يؤدي إلى دقة أفضل في فك التركيب. بالإضافة إلى ذلك، نقيم مناهج مختلفة لتمثيل الكلمات. يحقق محرك فك التركيب لدينا نتائج جديدة هي الأفضل على مستوى العالم لنماذج واحدة تم تدريبها على قاعدة بيانات بنك بن: 93.55 F1 دون استخدام أي بيانات خارجية، و95.13 F1 عند استخدام تمثيلات الكلمات المدربة مسبقًا. كما يتفوق محرك فك التركيب لدينا على أرقام الدقة المنشورة سابقًا لأفضل النماذج في 8 من اللغات الـ9 في مجموعة بيانات SPMRL.注释:- LSTM: طول القصيرة-المدى طويل (Long Short-Term Memory)- F1: معامل F1 (F1 score)- Penn Treebank: بنك الشجرة البنيوي (Penn Treebank)- SPMRL: مؤتمر المعالجة الآلية للغات ذات المصادر القليلة واللغات الإقليمية (Conference on Natural Language Processing in the Less Resourced Languages and Regional Languages)


بناء الذكاء الاصطناعي بالذكاء الاصطناعي

من الفكرة إلى الإطلاق — سرّع تطوير الذكاء الاصطناعي الخاص بك مع المساعدة البرمجية المجانية بالذكاء الاصطناعي، وبيئة جاهزة للاستخدام، وأفضل أسعار لوحدات معالجة الرسومات.

البرمجة التعاونية باستخدام الذكاء الاصطناعي
وحدات GPU جاهزة للعمل
أفضل الأسعار

HyperAI Newsletters

اشترك في آخر تحديثاتنا
سنرسل لك أحدث التحديثات الأسبوعية إلى بريدك الإلكتروني في الساعة التاسعة من صباح كل يوم اثنين
مدعوم بواسطة MailChimp
تحليل الدوائر الناخبة باستخدام مُشفِّر ذاتي الانتباه | مستندات | HyperAI