HyperAIHyperAI

Command Palette

Search for a command to run...

BP-Transformer: نمذجة السياق الطويل النطاق من خلال التقسيم الثنائي

Zihao Ye Qipeng Guo Quan Gan Xipeng Qiu Zheng Zhang

الملخص

نموذج الترانسفورمر ناجح على نطاق واسع في العديد من مهام معالجة اللغة الطبيعية. ومع ذلك، فإن التعقيد التربيعي لآلية الانتباه الذاتي يحد من تطبيقه على النصوص الطويلة. في هذه الورقة، وباستخدام آلية انتباه من التفاصيل إلى العام على فترات متعددة المقاييس من خلال التقسيم الثنائي (BP)، نقترح نموذج BP-Transformer (يُختصر بـ BPT). يُنتج BPT O(knlog(n/k))O(k\cdot n\log (n/k))O(knlog(n/k)) اتصالات، حيث يُعد kkk معاملًا خارجيًا يُستخدم للتحكم في كثافة الانتباه. يتميز BPT بتوازن جيد بين التعقيد الحسابي وقوة النموذج. وتشير سلسلة من التجارب على تصنيف النصوص، والترجمة الآلية، ونمذجة اللغة إلى أن BPT يتفوق على النماذج السابقة القائمة على الانتباه الذاتي في التعامل مع النصوص الطويلة. يُتاح كودنا، والمعاملات الخارجية، ونواة CUDA للانتباه النادر عبر مكتبة PyTorch.


بناء الذكاء الاصطناعي بالذكاء الاصطناعي

من الفكرة إلى الإطلاق — سرّع تطوير الذكاء الاصطناعي الخاص بك مع المساعدة البرمجية المجانية بالذكاء الاصطناعي، وبيئة جاهزة للاستخدام، وأفضل أسعار لوحدات معالجة الرسومات.

البرمجة التعاونية باستخدام الذكاء الاصطناعي
وحدات GPU جاهزة للعمل
أفضل الأسعار

HyperAI Newsletters

اشترك في آخر تحديثاتنا
سنرسل لك أحدث التحديثات الأسبوعية إلى بريدك الإلكتروني في الساعة التاسعة من صباح كل يوم اثنين
مدعوم بواسطة MailChimp