HyperAIHyperAI

Command Palette

Search for a command to run...

PartialFormer: نمذجة الجزء بدلًا من الكل في الترجمة الآلية

Tong Zheng Bei Li Huiwen Bao Jiale Wang Weiqiao Shan Tong Xiao Jingbo Zhu

الملخص

أدت خيارات التصميم في الشبكات العصبية التغذوية العكسية لنموذج Transformer إلى تكاليف حسابية وكمية كبيرة من المعاملات. في هذه الدراسة، نُبرز أهمية الأبعاد المخفية في تصميم الشبكات التغذوية العكسية الخفيفة، وهي عامل غالبًا ما يُهمل في الهياكل السابقة. وفقًا لهذا المبدأ، نُقدّم PartialFormer، وهي بنية Transformer فعّالة من حيث عدد المعاملات، تستخدم عدة شبكات تغذية عكسية صغيرة لتقليل عدد المعاملات والحسابات مع الحفاظ على الأبعاد المخفية الأساسية. يتم دمج هذه الشبكات الصغيرة في آلية الانتباه متعددة الرؤوس لتحقيق تعاون فعّال. كما نقترح استراتيجية مخصصة لتوسيع الرؤوس لتعزيز قدرات PartialFormer. بالإضافة إلى ذلك، نقدّم حسابًا للانتباه يشبه التراكب (residual-like attention) لتحسين التوسع العميق داخل PartialFormer. وقد أثبتت التجارب الواسعة على 9 مهام ترجمة ومهام واحدة للاستخلاص الاستنتاجي فعالية نهجنا PartialFormer في مهام الترجمة الآلية والاستخلاص. ستكون الكودات الخاصة بنا متاحة عبر: https://github.com/zhengkid/PartialFormer.


بناء الذكاء الاصطناعي بالذكاء الاصطناعي

من الفكرة إلى الإطلاق — سرّع تطوير الذكاء الاصطناعي الخاص بك مع المساعدة البرمجية المجانية بالذكاء الاصطناعي، وبيئة جاهزة للاستخدام، وأفضل أسعار لوحدات معالجة الرسومات.

البرمجة التعاونية باستخدام الذكاء الاصطناعي
وحدات GPU جاهزة للعمل
أفضل الأسعار

HyperAI Newsletters

اشترك في آخر تحديثاتنا
سنرسل لك أحدث التحديثات الأسبوعية إلى بريدك الإلكتروني في الساعة التاسعة من صباح كل يوم اثنين
مدعوم بواسطة MailChimp
PartialFormer: نمذجة الجزء بدلًا من الكل في الترجمة الآلية | مستندات | HyperAI