الإجابة على الأسئلة متعددة الخطوات من خلال سلاسل الاستدلال

إجابة الأسئلة متعددة الخطوات تتطلب من النماذج جمع المعلومات من أجزاء مختلفة من النص للإجابة على سؤال. تعتمد معظم الطرق الحالية على تعلم معالجة هذه المهمة بطريقة من النهاية إلى النهاية باستخدام الشبكات العصبية، دون الحفاظ على تمثيل صريح لعملية الاستدلال. نقترح طريقة لاستخراج سلسلة استدلال منفصلة من النص، تتكون من سلسلة من الجمل تؤدي إلى الإجابة. ثم نُدخل السلاسل المستخرجة إلى نموذج استجابة للأسئلة مبني على BERT للتنبؤ بالإجابة النهائية. وبشكل حاسم، لا نعتمد على سلاسل استدلال مُعلَّمة مسبقًا (السلالات الذهبية) أو "حقائق الدعم" أثناء التدريب؛ بل نستمد سلاسل استدلال افتراضية ذهبية باستخدام خوارزميات استدلالية تعتمد على التعرف على الكيانات المحددة (Named Entity Recognition) وحل التماثل النحوي (Coreference Resolution). ولا نعتمد أيضًا على هذه التسميات أثناء الاختبار، لأن نموذجنا يتعلم استخراج السلاسل من النص الخام فقط. قمنا باختبار منهجيتنا على مجموعتين كبيرتين من البيانات المُقترحتين حديثًا لأسئلة متعددة الخطوات: WikiHop وHotpotQA، وحققنا أداءً متقدمًا (state-of-the-art) على WikiHop وأداءً قويًا على HotpotQA. وتبين من تحليلنا الخصائص الأساسية للسلاسل التي تُسهم في الأداء العالي: وبخاصة، فإن نمذجة عملية الاستخراج بشكل تسلسلي أمر مهم، وكذلك التعامل مع كل جملة مرشحة بطريقة تأخذ السياق بعين الاعتبار. علاوةً على ذلك، أظهر التقييم البشري أن السلاسل المستخرجة تمكن البشر من الإجابة بثقة عالية، مما يدل على أنها تمثيل متوسط قوي لهذا المهمة.