HyperAIHyperAI

Command Palette

Search for a command to run...

Reformer: المرشح الفعّال للتحويلة

Nikita Kitaev Łukasz Kaiser Anselm Levskaya

الملخص

تحقيق النماذج الكبيرة من المحولات (Transformers) نتائج متقدمة في العديد من المهام، لكن تدريب هذه النماذج يمكن أن يكون مكلفًا جدًا، خاصة عند التعامل مع التسلسلات الطويلة. نقدم تقنيتين لتحسين كفاءة المحولات. أولاً، نستبدل الانتباه المبني على الضرب النقطي بانتباه يستخدم تجزئة الحساسية للمكان (Locality-Sensitive Hashing)، مما يُغيّر التعقيد من O(L2L^2L2) إلى O(LlogLL\log LLlogL)، حيث LLL تمثل طول التسلسل. ثانياً، نستخدم طبقات التجزئة العكسية (reversible residual layers) بدلًا من الطبقات القياسية، مما يسمح بتخزين القيم المُخرجة (النواتج) مرة واحدة فقط خلال عملية التدريب، بدلًا من NNN مرات، حيث NNN هو عدد الطبقات. الناتج هو نموذج يُسمى Reformer، الذي يُحقق أداءً مماثلًا لنماذج المحولات التقليدية، مع كفاءة أكبر في استخدام الذاكرة، وأسرع بشكل ملحوظ عند التعامل مع التسلسلات الطويلة.


بناء الذكاء الاصطناعي بالذكاء الاصطناعي

من الفكرة إلى الإطلاق — سرّع تطوير الذكاء الاصطناعي الخاص بك مع المساعدة البرمجية المجانية بالذكاء الاصطناعي، وبيئة جاهزة للاستخدام، وأفضل أسعار لوحدات معالجة الرسومات.

البرمجة التعاونية باستخدام الذكاء الاصطناعي
وحدات GPU جاهزة للعمل
أفضل الأسعار

HyperAI Newsletters

اشترك في آخر تحديثاتنا
سنرسل لك أحدث التحديثات الأسبوعية إلى بريدك الإلكتروني في الساعة التاسعة من صباح كل يوم اثنين
مدعوم بواسطة MailChimp