التدريب اللاحق التفصيلي لتحسين أنظمة المحادثة القائمة على الاسترجاع

تُظهر أنظمة المحادثة القائمة على الاسترجاع أداءً متميزًا عند استخدام نماذج اللغة المُدرَّبة مسبقًا، والتي تشمل تمثيلات المُشَرِّح الثنائي الاتجاه من نماذج المحولات (BERT). أثناء اختيار الاستجابة في جلسات محادثة متعددة الدورات، يركّز BERT على تدريب العلاقة بين السياق المكوَّن من عدة تعبيرات والاستجابة. ومع ذلك، فإن هذه الطريقة في التدريب تكون غير كافية عند النظر إلى العلاقات المتبادلة بين كل تعبير ضمن السياق، مما يؤدي إلى مشكلة في فهم تدفق السياق بشكل كامل، وهو ما يُعد شرطًا ضروريًا لاختيار استجابة مناسبة. ولحل هذه المشكلة، نقترح طريقة جديدة للتدريب المُحسَّن بعد التدريب المسبق، تعكس خصائص المحادثة متعددة الدورات. وبشكل خاص، يتعلم النموذج التفاعلات على مستوى التعبير من خلال تدريب كل زوج قصير من السياق والاستجابة ضمن جلسة محادثة. علاوةً على ذلك، وباستخدام هدف تدريب جديد يُسمى "تصنيف الصلة بين التعبيرات"، يفهم النموذج الصلة الدلالية والتماسك بين تعبيرات المحادثة. وتُظهر النتائج التجريبية أن نموذجنا يحقق أداءً جديدًا على مستوى الحد الأقصى (state-of-the-art) بفارق كبير على ثلاث مجموعات بيانات معيارية. ويُشير ذلك إلى أن طريقة التدريب الدقيقة بعد التدريب المسبق تكون فعالة جدًا في مهمة اختيار الاستجابة.