HyperAIHyperAI
منذ 13 أيام

تخفيف عدم التوازن في رؤوس الانتباه لترجمة الآلة العصبية

Zewei Sun, Shujian Huang, Xin-Yu Dai, Jiajun Chen
تخفيف عدم التوازن في رؤوس الانتباه لترجمة الآلة العصبية
الملخص

أظهرت دراسات حديثة أن رؤوس الانتباه في نموذج Transformer ليست متساوية. نربط هذه الظاهرة بانعدام التوازن في عملية التدريب الخاصة بانتباه الرؤوس المتعددة، والتبعية التي يُظهرها النموذج لرؤوس معينة. ولحل هذه المشكلة، نقترح طريقة بسيطة للإخفاء تُسمى "HeadMask"، بأسلوبين محددين. أظهرت التجارب تحسينات في الترجمة على عدة أزواج لغوية. كما تدعم التحليلات التجريبية اللاحقة افتراضنا وتحدد فعالية هذه الطريقة.

تخفيف عدم التوازن في رؤوس الانتباه لترجمة الآلة العصبية | أحدث الأوراق البحثية | HyperAI