إعادة التفكير من خلال الاسترجاع: استنتاج موثوق للنماذج اللغوية الكبيرة

رغم النجاح الذي حققته النماذج اللغوية الكبيرة (LLMs) في مهام معالجة اللغة الطبيعية (NLP) المختلفة، فإن المعرفة المخزنة داخل هذه النماذج قد تكون بالضرورة غير كاملة أو قديمة أو خاطئة. وهذا يُبرر الحاجة إلى استخدام معرفة خارجية لمساعدة النماذج اللغوية الكبيرة. للأسف، فإن الطرق الحالية لدمج المعرفة الخارجية تتطلب غالبًا تدريبًا إضافيًا أو ضبطًا دقيقًا، وهو ما قد يكون مكلفًا ولا يمكن تنفيذه في بعض الأحيان مع النماذج اللغوية الكبيرة. ولحل هذه المشكلة، نقترح منهجية جديدة للمعالجة اللاحقة تُسمى "إعادة التفكير من خلال الاسترجاع" (Rethinking with Retrieval - RR)، والتي تقوم باسترجاع المعرفة الخارجية ذات الصلة بناءً على خطوات الاستدلال المنفصلة المستمدة من تقنية التفكير المتسلسل (Chain-of-Thought - CoT). تتميز هذه الطريقة الخفيفة بأنها لا تتطلب تدريبًا إضافيًا أو ضبطًا دقيقًا، كما أنها لا تتأثر بحد طول المدخلات في النماذج اللغوية الكبيرة. وقد قمنا بتقييم فعالية RR من خلال تجارب واسعة باستخدام GPT-3 على ثلاث مهام معقدة للاستدلال: الاستدلال العام، والاستدلال الزمني، والاستدلال الجدولي. وأظهرت النتائج أن RR تُنتج تفسيرات أكثر مصداقية وتحسّن أداء النماذج اللغوية الكبيرة.