HyperAIHyperAI

Command Palette

Search for a command to run...

الاهتمام التكيفي في نماذج ترانسفورمر

Sainbayar Sukhbaatar Edouard Grave Piotr Bojanowski Armand Joulin

الملخص

نقترح آلية انتباه ذاتي جديدة قادرة على تعلم مدى الانتباه الأمثل لها. هذا يسمح لنا بتوسيع حجم السياق الأقصى المستخدم في نماذج Transformer بشكل كبير، مع الحفاظ على السيطرة على حجم الذاكرة الزمنية ووقت الحسابات. نوضح فعالية منهجيتنا في مهمة نمذجة اللغة على مستوى الحروف، حيث حققنا أداءً يتفوق على أفضل ما سبق في مجموعتي بيانات text8 وenwiki8 باستخدام سياق أقصى يصل إلى 8000 حرفاً (8k characters).


بناء الذكاء الاصطناعي بالذكاء الاصطناعي

من الفكرة إلى الإطلاق — سرّع تطوير الذكاء الاصطناعي الخاص بك مع المساعدة البرمجية المجانية بالذكاء الاصطناعي، وبيئة جاهزة للاستخدام، وأفضل أسعار لوحدات معالجة الرسومات.

البرمجة التعاونية باستخدام الذكاء الاصطناعي
وحدات GPU جاهزة للعمل
أفضل الأسعار

HyperAI Newsletters

اشترك في آخر تحديثاتنا
سنرسل لك أحدث التحديثات الأسبوعية إلى بريدك الإلكتروني في الساعة التاسعة من صباح كل يوم اثنين
مدعوم بواسطة MailChimp
الاهتمام التكيفي في نماذج ترانسفورمر | مستندات | HyperAI