HyperAIHyperAI

Command Palette

Search for a command to run...

RealFormer: Transformer يشبه الانتباه المتبقِّي

Ruining He Anirudh Ravula Bhargav Kanagal Joshua Ainslie

الملخص

يُعدّ المُحوّل (Transformer) العمود الفقري للنماذج الحديثة في معالجة اللغة الطبيعية (NLP). في هذه الورقة البحثية، نُقدّم RealFormer، وهي تقنية بسيطة وعامة لبناء شبكات مُحوّل ذات طبقات انتباه متكررة (Residual Attention Layer Transformer) تتفوّق بشكل كبير على المُحوّل الكلاسيكي ومشتقاته (مثل BERT، وغيرها) في طيف واسع من المهام، بما في ذلك نمذجة اللغة مع الحجب (Masked Language Modeling)، وملف GLUE، وSQuAD، والترجمة الآلية العصبية (Neural Machine Translation)، وWikiHop، وHotpotQA، وNatural Questions، وOpenKP. كما لاحظنا تجريبيًا أن RealFormer يُحسّن استقرار التدريب ويؤدي إلى نماذج تمتلك انتباهًا أدق (أقل كثافة). يمكن العثور على كود المصدر والنقاط المُدرّبة مسبقًا لـ RealFormer على الرابط التالي: https://github.com/google-research/google-research/tree/master/realformer.


بناء الذكاء الاصطناعي بالذكاء الاصطناعي

من الفكرة إلى الإطلاق — سرّع تطوير الذكاء الاصطناعي الخاص بك مع المساعدة البرمجية المجانية بالذكاء الاصطناعي، وبيئة جاهزة للاستخدام، وأفضل أسعار لوحدات معالجة الرسومات.

البرمجة التعاونية باستخدام الذكاء الاصطناعي
وحدات GPU جاهزة للعمل
أفضل الأسعار

HyperAI Newsletters

اشترك في آخر تحديثاتنا
سنرسل لك أحدث التحديثات الأسبوعية إلى بريدك الإلكتروني في الساعة التاسعة من صباح كل يوم اثنين
مدعوم بواسطة MailChimp