HyperAIHyperAI

Command Palette

Search for a command to run...

معالجة بعض القيود الخاصة بمحولات باستخدام الذاكرة التغذوية

Angela Fan Thibaut Lavril Edouard Grave Armand Joulin Sainbayar Sukhbaatar

الملخص

تم تطبيق نماذج Transformers بنجاح على المهام التسلسلية ذات التوليد التلقائي، رغم أنها شبكات تغذية أمامية. على عكس الشبكات العصبية التكرارية، تستخدم نماذج Transformers الانتباه لالتقاط العلاقات الزمنية أثناء معالجة الرموز المدخلة بشكل متوازٍ. وعلى الرغم من أن هذه التوازي يُحدث كفاءة حسابية عالية، فإنه يُقيّد النموذج من الاستفادة الكاملة من الطبيعة التسلسلية للمدخلات. فتمثيل الطبقة المعطاة يمكنه فقط الوصول إلى تمثيلات الطبقات الأقل، بدلًا من التمثيلات ذات المستوى الأعلى التي تكون بالفعل متاحة. في هذه الدراسة، نقترح معمارية Feedback Transformer التي تُعرض جميع التمثيلات السابقة على جميع التمثيلات المستقبلية، مما يعني أن التمثيل الأدنى في اللحظة الحالية يُبنى من التمثيل المجرد عالي المستوى للماضي. ونُظهر من خلال مجموعة متنوعة من المعايير في نمذجة اللغة والترجمة الآلية والتعلم التعلمي التكيفي أن القدرة المُحسَّنة على التمثيل يمكن أن تُنتج نماذج صغيرة ورقيقة تُظهر أداءً أقوى بكثير من نماذج Transformers المماثلة.


بناء الذكاء الاصطناعي بالذكاء الاصطناعي

من الفكرة إلى الإطلاق — سرّع تطوير الذكاء الاصطناعي الخاص بك مع المساعدة البرمجية المجانية بالذكاء الاصطناعي، وبيئة جاهزة للاستخدام، وأفضل أسعار لوحدات معالجة الرسومات.

البرمجة التعاونية باستخدام الذكاء الاصطناعي
وحدات GPU جاهزة للعمل
أفضل الأسعار

HyperAI Newsletters

اشترك في آخر تحديثاتنا
سنرسل لك أحدث التحديثات الأسبوعية إلى بريدك الإلكتروني في الساعة التاسعة من صباح كل يوم اثنين
مدعوم بواسطة MailChimp