تدريب على مستوى الملخص لإعادة صياغة الجملة للاستخلاص التلخيصي

بهدف دمج الاستخلاص والاستخلاص المُلخّص، تُطبّق نماذج إعادة صياغة الجملة استراتيجية استخلاص الجمل البارزة من المستند أولاً، ثم إعادة صياغة الجمل المختارة لتوليد ملخص. ومع ذلك، تعتمد النماذج الحالية ضمن هذا الإطار بشكل رئيسي على مكافآت على مستوى الجملة أو على علامات غير مثلى، مما يؤدي إلى عدم توافق بين هدف التدريب ومؤشر التقييم. في هذه الورقة، نقدّم إشارة تدريب جديدة تُحسّن مباشرةً معدّلات ROUGE على مستوى الملخص من خلال التعلّم المعزّز. بالإضافة إلى ذلك، ندمج نموذج BERT في نموذجنا، مما يُتيح الاستفادة الكاملة من قدرته على فهم اللغة الطبيعية. في تجارب واسعة، نُظهر أن الجمع بين النموذج المقترح وطريقة التدريب الخاصة بنا يحقق أداءً جديدًا على مستوى الحد الأقصى من الأداء على كلا مجموعتي بيانات CNN/Daily Mail وNew York Times. كما نُظهر أن النموذج يُظهر أداءً أفضل في التعميم على مجموعة اختبار DUC-2002.