Command Palette
Search for a command to run...
الاهتمام التكيفي في نماذج ترانسفورمر
الاهتمام التكيفي في نماذج ترانسفورمر
Sainbayar Sukhbaatar Edouard Grave Piotr Bojanowski Armand Joulin
الملخص
نقترح آلية انتباه ذاتي جديدة قادرة على تعلم مدى الانتباه الأمثل لها. هذا يسمح لنا بتوسيع حجم السياق الأقصى المستخدم في نماذج Transformer بشكل كبير، مع الحفاظ على السيطرة على حجم الذاكرة الزمنية ووقت الحسابات. نوضح فعالية منهجيتنا في مهمة نمذجة اللغة على مستوى الحروف، حيث حققنا أداءً يتفوق على أفضل ما سبق في مجموعتي بيانات text8 وenwiki8 باستخدام سياق أقصى يصل إلى 8000 حرفاً (8k characters).