HyperAIHyperAI

Command Palette

Search for a command to run...

بيغ بيرد: نماذج التحويل لسلاسل أطول

الملخص

نموذجات القواعد القائمة على Transformers، مثل BERT، تمثل واحدة من أكثر نماذج التعلم العميق نجاحًا في مجال معالجة اللغة الطبيعية (NLP). وللأسف، إحدى القيود الأساسية فيها هي الاعتماد التربيعي (وخاصة من حيث الذاكرة) على طول التسلسل النصي بسبب آلية الانتباه الكاملة. وللتغلب على هذه المشكلة، نقترح نموذج BigBird، وهو آلية انتباه متباعدة (Sparse Attention) تقلل هذا الاعتماد التربيعي إلى اعتماد خطي. ونُظهر أن BigBird هو مُقرب عالمي للدوال التسلسلية، وأنه كامل تورينغ (Turing complete)، وبالتالي يحتفظ بهذه الخصائص المميزة للنموذج التقليدي القائم على الانتباه الكامل التربيعي. أثناء التحليل النظري، كشفت النتائج عن بعض الفوائد الناتجة عن وجود رموز عالمية (Global Tokens) بثابت O(1)O(1)O(1) (مثل CLS)، والتي تنتبه إلى كامل التسلسل كجزء من آلية الانتباه المتباعدة. وتمكّن آلية الانتباه المتباعدة المقترحة من التعامل مع تسلسلات طولها تصل إلى 8 أضعاف الطول الأقصى الممكن سابقًا باستخدام نفس المعدات الحاسوبية. وبسبب القدرة على معالجة سياقات أطول، تتحسن أداء BigBird بشكل كبير في مهام متعددة في مجال NLP مثل الإجابة على الأسئلة وتلخيص النصوص. كما نقترح تطبيقات جديدة في مجال بيانات الجينوميات.


بناء الذكاء الاصطناعي بالذكاء الاصطناعي

من الفكرة إلى الإطلاق — سرّع تطوير الذكاء الاصطناعي الخاص بك مع المساعدة البرمجية المجانية بالذكاء الاصطناعي، وبيئة جاهزة للاستخدام، وأفضل أسعار لوحدات معالجة الرسومات.

البرمجة التعاونية باستخدام الذكاء الاصطناعي
وحدات GPU جاهزة للعمل
أفضل الأسعار

HyperAI Newsletters

اشترك في آخر تحديثاتنا
سنرسل لك أحدث التحديثات الأسبوعية إلى بريدك الإلكتروني في الساعة التاسعة من صباح كل يوم اثنين
مدعوم بواسطة MailChimp