استخلاص ملخص للوثائق الطويلة باستخدام الاستنتاج العلوي الهابط والسفلي الصاعد

تهدف ملخصات النصوص إلى تقليل حجم الوثائق الطويلة مع الحفاظ على المعلومات الأساسية. ويعتبر الاستنتاج الدقيق للتمثيلات الخفية للكلمات أو الرموز في الوثائق المصدرية عنصراً حاسماً لنجاح نموذج الملخص. تعتمد معظم النماذج الحديثة على مُشفّر تحويل (Transformer Encoder) لاستنتاج هذه التمثيلات، والذي يعمل بشكل صرف من الأسفل إلى الأعلى. كما أن النماذج القائمة على الانتباه الذاتي تواجه تحدي التعقيد التربيعي بالنسبة إلى طول التسلسل. نقترح إطاراً استنتاجياً منهجياً لتحسين نماذج الملخص من حيث هذين الجانبين. يفترض إطارنا وجود هيكل خفي هرمي للوثيقة، حيث يُمثّل المستوى العلوي الاعتماد على المدى الطويل بمقاييس زمنية أعرض، بينما يُحتفظ بتفاصيل المستوى السفلي للرموز. وتكمن الأهمية الحاسمة في هذا الهيكل الهرمي في تمكين تحديث تمثيلات الرموز بطريقة من الأسفل إلى الأعلى ومن الأعلى إلى الأسفل في آن واحد. في المرحلة من الأسفل إلى الأعلى، يتم استنتاج تمثيلات الرموز باستخدام الانتباه الذاتي المحلي للاستفادة من كفاءته. ثم تُطبَّق تصحيحات من الأعلى إلى الأسفل لتمكين الرموز من اكتساب الاعتماد على المدى الطويل. نُظهر فعالية الإطار المقترح على مجموعة متنوعة من مجموعات بيانات الملخص، بما في ذلك النصوص السردية، والمحادثات، والوثائق العلمية، والأخبار. ويحقق نموذجنا (1) أداءً تنافسياً أو أفضل في الوثائق القصيرة، مع كفاءة أعلى من حيث الذاكرة والحساب، مقارنة بنماذج التحويل ذات الانتباه الكامل، و(2) أداءً رائداً في مجالات معايير ملخصات الوثائق الطويلة، مقارنة بنماذج التحويل الفعالة الحديثة. كما نُظهر أن نموذجنا يمكنه تلخيص كتاب كامل ويحقق أداءً تنافسياً باستخدام 0.27٪ فقط من عدد المعلمات (464 مليون مقابل 175 بيليون)، وبكمية أقل بكثير من بيانات التدريب، مقارنة بنموذج حديث يستند إلى GPT-3. تشير هذه النتائج إلى الجدوى العامة وفوائد الإطار المقترح.