مُحَوِّل نظرة خاطفة للترجمة الآلية العصبية غير التلقائية

تهدف الدراسات الحديثة في الترجمة الآلية العصبية غير التلقائية (NAT) إلى تحسين الكفاءة من خلال التفكيك المتوازي دون التضحية بالجودة. ومع ذلك، فإن الطرق الحالية المُستخدمة في NAT إما تُقلّ عن نموذج Transformer أو تتطلب عمليات تفكيك متعددة، مما يؤدي إلى تقليل الفائدة في السرعة. نقترح نموذج اللغة البصري (GLM)، وهو طريقة لتعلم الاعتماديات بين الكلمات في نماذج التوليد المتوازي بأمر واحد. وباستخدام GLM، نطور نموذج Transformer البصري (GLAT) للترجمة الآلية. وباستخدام تفكيك متوازي بأمر واحد فقط، يمكن لـ GLAT إنتاج ترجمات عالية الجودة مع تسريع يصل إلى 8 إلى 15 مرة. أظهرت التجارب على عدة اتجاهات لغوية في WMT أن GLAT يتفوق على جميع الطرق السابقة المُعتمدة على التفكيك بأمر واحد غير التلقائية، ويشبه تقريبًا أداء نموذج Transformer، مع تقليل الفجوة إلى 0.25 إلى 0.9 نقاط BLEU.