HyperAIHyperAI

Command Palette

Search for a command to run...

Transformer هي RNN: تحويلات سريعة ذات ارتباط تلقائي واهتمام خطي

Angelos Katharopoulos Apoorv Vyas Nikolaos Pappas François Fleuret

الملخص

تحقيق نماذج التحويل (Transformers) أداءً ملحوظًا في العديد من المهام، لكنها تواجه بطءًا كبيرًا في تطبيقها على التسلسلات الطويلة جدًا نظرًا لتعقيدها التربيعي بالنسبة إلى طول المدخلات. وللتغلب على هذا التحدي، نُعبّر عن الانتباه الذاتي (self-attention) كناتج داخلي خطي لخرائط الميزات النواة (kernel feature maps)، ونستفيد من خاصية الترابط (associativity) في عمليات ضرب المصفوفات لتقليل التعقيد من O(N2)\mathcal{O}\left(N^2\right)O(N2) إلى O(N)\mathcal{O}\left(N\right)O(N)، حيث تمثل NNN طول التسلسل. ونُظهر أن هذه الصيغة تسمح بتنفيذ تكراري (iterative) يُسرّع بشكل كبير نماذج التحويل المتسلسلة (autoregressive transformers)، كما تكشف عن العلاقة بينها وبين الشبكات العصبية التكرارية (recurrent neural networks). وتُظهر النماذج الخطية للتحويل (linear transformers) أداءً مشابهًا للنماذج الأصلية (vanilla transformers)، مع تسريع يصل إلى 4000 مرة عند التنبؤ بالسلسلة الطويلة جدًا في النماذج المتسلسلة.


بناء الذكاء الاصطناعي بالذكاء الاصطناعي

من الفكرة إلى الإطلاق — سرّع تطوير الذكاء الاصطناعي الخاص بك مع المساعدة البرمجية المجانية بالذكاء الاصطناعي، وبيئة جاهزة للاستخدام، وأفضل أسعار لوحدات معالجة الرسومات.

البرمجة التعاونية باستخدام الذكاء الاصطناعي
وحدات GPU جاهزة للعمل
أفضل الأسعار

HyperAI Newsletters

اشترك في آخر تحديثاتنا
سنرسل لك أحدث التحديثات الأسبوعية إلى بريدك الإلكتروني في الساعة التاسعة من صباح كل يوم اثنين
مدعوم بواسطة MailChimp