شبكة انتباه تركيبي من الدرجة العليا لضغط الجمل الأطول

يمكن لطريقة ضغط الجملة المستندة إلى الشبكة العصبية LSTM إنتاج جمل مضغوطة سلسة. ومع ذلك، فإن أداء هذه الطريقة يتأثر بشكل كبير عند ضغط الجمل الطويلة، نظرًا لعدم معالجتها بشكل صريح للخصائص النحوية. لحل هذه المشكلة، نقترح شبكة انتباه نحوية من الدرجة العليا (HiSAN) التي تستطيع معالجة خصائص الاعتماد من الدرجة العليا من خلال توزيع انتباه على حالات LSTM المخفية. علاوة على ذلك، لتجنب تأثير نتائج التحليل الخاطئة، تم تدريب HiSAN من خلال تعظيم الاحتمال المشترك للإخراج الصحيح وتوزيع الانتباه معًا. أظهرت النتائج التجريبية على مجموعة بيانات ضغط الجمل من Google أن طريقةنا حققت أفضل الأداء من حيث مؤشر F1، بالإضافة إلى مقاييس ROUGE-1، ROUGE-2، وL، بقيم 83.2، 82.9، 75.8، و82.7 على التوالي. وفي التقييم البشري، تفوقت طريقةنا أيضًا على الطرق الأساسية من حيث قابلية القراءة وال informativeness.