HyperAIHyperAI

Command Palette

Search for a command to run...

تخفيف عدم التوازن في رؤوس الانتباه لترجمة الآلة العصبية

Zewei Sun Shujian Huang Xin-Yu Dai Jiajun Chen

الملخص

أظهرت دراسات حديثة أن رؤوس الانتباه في نموذج Transformer ليست متساوية. نربط هذه الظاهرة بانعدام التوازن في عملية التدريب الخاصة بانتباه الرؤوس المتعددة، والتبعية التي يُظهرها النموذج لرؤوس معينة. ولحل هذه المشكلة، نقترح طريقة بسيطة للإخفاء تُسمى "HeadMask"، بأسلوبين محددين. أظهرت التجارب تحسينات في الترجمة على عدة أزواج لغوية. كما تدعم التحليلات التجريبية اللاحقة افتراضنا وتحدد فعالية هذه الطريقة.


بناء الذكاء الاصطناعي بالذكاء الاصطناعي

من الفكرة إلى الإطلاق — سرّع تطوير الذكاء الاصطناعي الخاص بك مع المساعدة البرمجية المجانية بالذكاء الاصطناعي، وبيئة جاهزة للاستخدام، وأفضل أسعار لوحدات معالجة الرسومات.

البرمجة التعاونية باستخدام الذكاء الاصطناعي
وحدات GPU جاهزة للعمل
أفضل الأسعار

HyperAI Newsletters

اشترك في آخر تحديثاتنا
سنرسل لك أحدث التحديثات الأسبوعية إلى بريدك الإلكتروني في الساعة التاسعة من صباح كل يوم اثنين
مدعوم بواسطة MailChimp