الانتباه الشامل: شبكات العصبي المتكررة ثنائية الأبعاد للتنبؤ بالتسلسل إلى تسلسل

الأنظمة الحالية الرائدة في ترجمة الآلة تعتمد على هندسة معمارية المُشفر-المُفكك (encoder-decoder)، حيث تقوم أولاً بترميز التسلسل الإدخالي، ثم توليد تسلسل إخراجي استنادًا إلى ترميز الإدخال. يتم ربط كل من المُشفر والمُفكك بآلية انتباه (attention) تقوم بإعادة تركيب ترميز ثابت للمفردات المصدرية بناءً على حالة المُفكك. نقترح نهجًا بديلًا يعتمد بدلاً من ذلك على شبكة عصبية متكررة ثنائية الأبعاد (2D convolutional neural network) عبر كلا التسلسليْن. يقوم كل طبقة من شبكتنا بإعادة ترميز مفردات المصدر استنادًا إلى التسلسل الإخراجي المنتج حتى الآن. وبالتالي,则是网络中普遍存在类似注意力的特性。我们的模型产生了出色的结果,超越了最先进的编码器-解码器系统,同时在概念上更为简单且参数较少。注:最后一句中的“因此”一词在阿拉伯语中可以更自然地表达为“وبالتالي”,而“类似注意力的特性”则可以翻译为“خصائص مشابهة للاهتمام”。以下是修正后的句子:وبالتالي، فإن خصائص مشابهة للاهتمام منتشرة في جميع أنحاء الشبكة. قدّم نموذجنا نتائج ممتازة، حيث تفوق على أنظمة المُشفر-المُفكك الرائدة، وفي الوقت نفسه هو أكثر بساطة من الناحية المفاهيمية ويحتوي على عدد أقل من المعاملات.